RTX лучи для нищих
- Войдите на сайт для отправки комментариев
Втр, 12/07/2022 - 17:04
Приветствую всех, коллеги. Очень хотелось бы услышать Ваше мнение по технологии RTX. Приживется не приживется? У самого 1070, планирую менять на 3070, по большему счету из за лучей. Очень хочется увидеть лучи. Я так понимаю надрачивать на фпс и раскрытие видеокарты уже не модно. Разница в игре 100 или 120 фпс обычному геймеру уже до сраки. Пришло время обнулить все карты до уровня унылого говна новой технологией rtx. Теперь можно по новой выпускать карты за штуцер. Эти лучи пихают уже во все карты, даже самые бичевые и нищенские. Карты от Интер будут с лучами, даже в новые райзены всунут лучи. Ваше мнение?
Мнение такое: пофиг.
для меня это все набор непонятных слов. Никогда не покупал видеокарт отдельно, всегда пользуюсь процами с встроенной графикой
Многабукафф. Никогда не относил себя к геймерам, хотя играл в первый хитман когда-то, nfs и колл оф дути (вроде бы).
RTX технология как я понял, должна облегчить разработчикам создание игоря. Не надо прорисовывать тени и отражения, достаточно разместить источник света и видеокарта должна все сделать сама, на аппаратном уровне естессно.
имхо , RTX надо дизайнерам 3D анимаций что бы сцены просчитывать , моделлерам типа SolidWorks(если в quadro нет нужды ) , если позволяет то и всяким ИИ ускорять процесс обучения и просчетов, но для геймера и игр нафиг ненадо ,потому что из примеров разница видна когда в 4к делают стоп кадр и сравнивают листики деревъев в увиличении +100500
RTX технология как я понял, должна облегчить разработчикам создание игоря.
Простые чесные мама с папой, в фертильном возрасте, лехко могут создать любого игоря без всякого богомерзкого RTX.
Ну, у меня 3070ti. Фпс больше не модный, все ставят VSync под частоту монитора. Лучи - штука полезная, а в играх ещё и довольно красивая, всё блестит и отражает. В современных нвидиях лучи обрабатываются отдельными ядрами, их можно приспособить и под ускорение нейросетей (впрочем для них тоже есть специальные отдельные ядра). Очень редко играю на видяхе, юзаю как ускоритель для предрасчётов по-быстрому, потом уже в облаке запускаю просчёт моделек. Иногда вот на тест игры запускаю - красивое. 280 ватт жрёт в пике, между прочим.
Ну, у меня 3070ti. Фпс больше не модный, все ставят VSync под частоту монитора. Лучи - штука полезная, а в играх ещё и довольно красивая, всё блестит и отражает. В современных нвидиях лучи обрабатываются отдельными ядрами, их можно приспособить и под ускорение нейросетей (впрочем для них тоже есть специальные отдельные ядра). Очень редко играю на видяхе, юзаю как ускоритель для предрасчётов по-быстрому, потом уже в облаке запускаю просчёт моделек. Иногда вот на тест игры запускаю - красивое. 280 ватт жрёт в пике, между прочим.
Уже вроде как делали hairworks и втащило. Карты тоже обнулились. У геральда можно было волосы рассмотреть. Жду новую технологию H&S - head and shaulders, чтобы у главного героя можно было перхоть разглядеть.
У меня для игр плойка 4.
А видимокарты сейчас стоят столько, что проще взять пс5 и библиотеку игр , чем купить видеокарту.
А ПК за 300к+, нахер не нужен.
Оно того не стоит.
Бук 10-летний справляется со всеми задачами на ура.
Ну, такой вот сейчас мир. Кроме этих 300W, процессор потребляет ещё 200W - зимой никакой обогреватель не нужен, можно просто включить какое-нибудь 3d демо в цикле. :) Всё шумит, воет, жаром пышет.
Дискретные видеокарты на пк давным-давно уже превратились из рисовалок игр в крутой профессиональный сопроцессор, на них выполняют профессиональные задачи, 3д графику, нейросети, и даже майнинг :) Кстати, цены на видяшки в последнее время очень сильно упали.
ПК за 300к очень даже нужен, оно того стоит и окупается в первый же месяц, разумеется, у того, кто профессионально на нём работает. Ну и заодно можно и игры запустить, посмотреть на лучи-текстуры-магические миры. Кстати, современный движок волос с перхотью присутствует у Лары Крофт в Tomb Raider, и жрёт он довольно-таки много гпу.
На перхоть можно в любой парикмахерской посмотреть...
Ну ))) Но посмотреть на нарисованные тоже весело. Сейчас игры, как фильмы )) Ещё и весят по 100-200 Гб, а отдельные экземпляры со всеми модами переваливают за терабайт! Игроманам раздолье, за всю жизнь во все игры не переиграть, настолько их уже много :) Но хороших мало, в большинстве игр жми себе кнопку вперёд+выстрел и всё, считай прошёл. Все ушли в мультиплееры и донаты, плати = играй.
Ну, такой вот сейчас мир. Кроме этих 300W, процессор потребляет ещё 200W - зимой никакой обогреватель не нужен, можно просто включить какое-нибудь 3d демо в цикле. :) Всё шумит, воет, жаром пышет.
Дискретные видеокарты на пк давным-давно уже превратились из рисовалок игр в крутой профессиональный сопроцессор, на них выполняют профессиональные задачи, 3д графику, нейросети, и даже майнинг :) Кстати, цены на видяшки в последнее время очень сильно упали.
ПК за 300к очень даже нужен, оно того стоит и окупается в первый же месяц, разумеется, у того, кто профессионально на нём работает. Ну и заодно можно и игры запустить, посмотреть на лучи-текстуры-магические миры. Кстати, современный движок волос с перхотью присутствует у Лары Крофт в Tomb Raider, и жрёт он довольно-таки много гпу.
А чем Лара Крофт с перхотью, на ПК за 300к, отличается от той же Лары Крофт без перхоти(не уверен не вглядывался) на пс4, за 20к ?
сейчас можно с алика за 30+ собрать ПК на паре ксеонов
сейчас можно с алика за 30+ собрать ПК на паре ксеонов
С дискретным видео уровня rtx3070 ?
я за 10т собрал основное, без видюхи, щаслифф
Я спецом беру процы с небольшим теплопакетом, не греецо и не торохтит. 12 ядер - 65 вт норм. Но эти ваты понятное дело усредненные. Плойка и бокс конечно хороши и удобны, но на них особо не попиратишь. Вот и остается на карты поглядывать.
Детализацией и общим качеством картинки. А пс4 за 20к точно сможет выполнить все те задачи, что выполняет пк за 300к? ))
Я спецом беру процы с небольшим теплопакетом, не греецо и не торохтит. 12 ядер - 65 вт норм. Но эти ваты понятное дело усредненные. Плойка и бокс конечно хороши и удобны, но на них особо не попиратишь. Вот и остается на карты поглядывать.
Я до всей этой петрушки с Украиной, покупал игры на распродажах.
300-700р.
Играю я нечасто, так что хватает надолго.
Сейчас вот непройденные ещё на консоли:
Shadow of TombRaider,
Horizont: ZeroDawn
ResidentEvil7
XCom2
На год должно хватить.
Если совсем припрет, то можно на Авито диски нужные прикупить.
Я вот тоже думаю, если играть в игру ААА класса. То картинку нужно выкрутить на максимум, чтобы полностью насладится игрой.
А пс4 за 20к точно сможет выполнить все те задачи, что выполняет пк за 300к? ))
Нет конечно , у нее назначение другое.
Все что не сможет плойка, сможет 10летний бук.
Это очень хорошо, когда задачи такие нетребовательные.
Это очень хорошо, когда задачи такие нетребовательные.
Это очень хорошо, когда задачи такие нетребовательные.
Так это дает общую картинку. Если Вы берете ААА продукт, то грех играть на разрешении 640*480 с выкрученными до минимума настройками. Не получите всего кайфа от игры, пройдете достойную игру как обычный проходняк. Вы посмотрите на свежий Unreal Engine 5, уже смело можно сказать, что это фотореалистичная графика. Я за перхоть! И готов заплатить за перхоть в разумных пределах. Только тут делема, RTX безусловно круто и нужно, но фрейм рейт из топовой видеокарты делает унылое говно на 30-40 фпс. Вопрос это маркетинговый ход, или действительно будущее видеокарт за RTX. Щас даже нищенские карты тянут хорошие игры на 60+ фпс без лучей, вот мне лично до сраки 60 или 120 фпс, за 60 дополнительных кадров я переплачивать не буду + это нагрев дополнительный и шум. Но вот лучи, за них готов заплатить, а будут ли они жить...
Если много-много таких дебилов заплатят, то будут.
Да будут, куда они денутся, подешевеют со временем, будут в каждом встроенном SoC, как сейчас OpenGL в мобилках. Лучи это ж не только игры, это и рендеры, и моделинг, и всякие прочие флоатинг вычисления. Чтобы фреймрейт не падал, в пару к лучам придумали DLSS, на профильных форумах десятки флуд-топиков по сотне страниц на эту тему )) Там логичнее это обсуждать.
Разумеется, на форуме фанатов 16 МГц микроконтроллеров, все эти 5 ГГц, сотни ватт, десятки тысяч шейдерных процессоров - ересь и не нужны :)
Если кто не видел))) https://www.youtube.com/watch?v=0frNP0qzxQc&t=1s
Туцик
Это первоапрельское видео, но в каждой шутке...
Я фигею конечно порой, рейтрейсингу (как технологии) уже 50 лет в обед, наконец-то технологии позволили выполнять её на сопроцессоре в реальном времени, стало возможным применять технологию в играх, а покупателей этой чудной технологии называют дебилами :) Но я всё понимаю, ведь чтобы помигать светодиодиком и налить уодку из наливатора в стакан, лучи действительно не нужны. Лучше будем по старинке попиксельно или построчно копировать картинку в буфер дисплея, а отражения? Перемножить 100500 матриц? Нее, какие нафиг отражения, только хардкор.
Так в этом видео как раз не в бровь, а в глаз. И бп в 1квт для видеокарты, и куча куллеров, и размер видеокарты, И дрочеры на фпс в Тестах)))) Я ж и запостил тему в отвлеченных. Не понятно почему с введением технологии rtx, карты не поделили на сегменты, для геймеров, ютубер-рендерингов, и автокадщиков. Геймермам предпочтительнее иметь больше rtx ядер, нежели куда.
Давно поделили: для геймеров и ютуберов geforce, для автокадщиков, 3d-шников, нейросетевиков, видеовещателей - тесла и quadro, даже пытались майнерам отдельный модельный ряд создавать. ))
Опять не угадали, cuda ядра - это и есть собственно видеопроцессор, rtx ядра лишь вспомогательные. Чем шейдерных ядер больше, тем карта шустрее, тем лучше игрокам. CUDA просто позволяет выполнять на шейдерах свои параллельные программки, а не одну большую жирную программку по имени DirectX/GPU driver.
Я что то не пойму. Если есть лишние фпс - купите 8к телек или 3д шлемак из последних и как рукой снимет :)
я за 10т собрал основное, без видюхи, щаслифф
после этого компа тебя за другой не усадишь )))
Да чойта? Внадаче у мня простой чесный i5-3470, нам со с котом его тоже хватает. Правда, мы на ём лучи перхоти на головах/жопах выдуманных персонажей не разглядываем.
Да чойта? Внадаче у мня простой чесный i5-3470, нам со с котом его тоже хватает. Правда, мы на ём лучи перхоти на головах/жопах выдуманных персонажей не разглядываем.
и какой из них быстрее - Ксеон с Али за десятку или честный i5 ? 16 гиг оперативки не мало?
ксеон как бешеная числодробилка с 10 ядрами/20 потоками и 25М L3 кэша, канешна быстрее, но не критично. Видео перекодирует в 3-5 раз быстрее, зипует мгновенно, а на моих повседневных задачах разница вапще не заметна. И там и там SSD и 16Г памяти, но, буду до 32 добивать
купить штоль... пля, придется винду переставлять....
а компилирует быстрее?
Не заметил. Скорее всего, компиляция занимает одно ядро, а при этих условиях компилирует быстрее тот, у каво тактовая больше и память быстрее.
P.S. откомпилировал в VS Micro проект для Наны > 1000 строк, первый раз 24 секунды, последующие 7-9 секунд. Это на Ксеоне. Нубук с i5-10300 этот же проект компилирует первый раз 37 секунд, потом 12-14 секунд. Так что выигрыш не особо
я за 10т собрал основное, без видюхи, щаслифф
заказал себе, спасибо, устал на Celeron все компилировать.
Не заметил. Скорее всего, компиляция занимает одно ядро, а при этих условиях компилирует быстрее тот, у каво тактовая больше и память быстрее.
P.S. откомпилировал в VS Micro проект для Наны > 1000 строк, первый раз 24 секунды, последующие 7-9 секунд. Это на Ксеоне. Нубук с i5-10300 этот же проект компилирует первый раз 37 секунд, потом 12-14 секунд. Так что выигрыш не особо
натянуть туда и туда линукс будет понятно ху ис ху
я за 10т собрал основное, без видюхи, щаслифф
кулер сразу брали к комплекту? ссылкой поделитесь?
или лучше подождать как придет комплект?
не по теме
ua6em
в линуксе свое хид устройство трудно прикрутить? ну например через лазариус?
Cразу брал. Поделюсь, канеш Очень тихий
Память вставлять сначала в оранжевые гнезда, иначе не заведется. Ну и докупить желательно еще 2х8 DDR4 2666. Мне уже ехают
Cразу брал. Поделюсь, канеш Очень тихий
странная какая-то конфигурация у вентиля - поперек проца. Это под какой-то специальный корпус? В типичном корпусе напротив проца обычно дырка, а тут ее, как мне кажется, вентиль боком закроет...
Не, корпус обычный, в 2012 году купленный. Из-за частых лазаний унутрь боковой крышки нету, но если б она была, 146% закрылась бы. Только раструб пластмассовый надо будет снять, если есть, но он легко снимается. завтра сфотаю.
Но в общем, конечно, симпатично выходит...
Комплект от Деда - 10 тыс
Кулер - 1.5 тр
Доп 16 Гб RAM - 3 - 3.5 тр
SSD 500 Gb - 5 тыр
Корпус + БП - от 3 тыс
Короче, немногим дороже 20 тыс можно собрать неплохой системный блок...
не по теме
ua6em
в линуксе свое хид устройство трудно прикрутить? ну например через лазариус?
я не в теме, wdrakula спроси (скорее всего да, так как это всё в ядре)
Деда. еще уточни - вроде в описании к матери где-то попалось что память НЕ-ЕСС, а дополнительно ты ЕСС заказал... где правда?
Ксеоны любят ECC для ответственных задач, но и без них живут себе вполне нормально. У меня IBM x3200 который год с обычными планками керогазит. Не вешается.
память он жрёт и декстопную и серверную, без разницы, главное, чтоб в парных слотах она одинаковая стояла