PC :: видеокарты :: AMD :: Radeon :: nvidia

nvidia AMD Radeon видеокарты PC 

nvidia,AMD,Radeon,видеокарты,PC


Подробнее

nvidia,AMD,Radeon,видеокарты,PC
Еще на тему
Развернуть

Отличный комментарий!

Ну и мой старичок, переживший два блока питания, три проца и не работавший ни дня на базовых частотах.
ManKey ManKey26.05.202320:19ссылка
+19.1
>для майнинга
Пидарас
а шо , хуше стало?
poison poison 26.05.202320:04 ответить ссылка 2.0
4060Ti в некоторых моментах проигрывает 3060Ti
Всё индивидуально, но 4090 — пока самая сильная видеокарта на рынке.
Funduck Funduck 26.05.202320:25 ответить ссылка 18.1
Он идиот.
И я! И я!
z10dey z10dey 27.05.202302:48 ответить ссылка 9.4
Хорошо. И ты.
Сильная в разрешении 4к, такие видюхи берутся под хорошее разрешение экрана. Если ты еще 10 лет собираешься на фуллхд сидеть, то это не значит, что все разделяют твое стремление.
Tetrix Tetrix 27.05.202313:15 ответить ссылка 2.0
да, по цене сосет. если не хочешь спонсировать отношение куртки с топовыми картами за 1к+ баксов, то лучше брать топовую б\у карту, а не новое.
Ну да, отдать 200 кусков за б/у карту, которая возможно наебнется через месяц. Лотерея для очень богатых.
В принципе откинуться и у новой есть шансы. :)
А карта, которая была у другого уже прошла простой тест -- не сдохнуть под нагрузками и околопохуистичным отношением предыдущего владельца.

Не говорю что нужно подскакивать и идти срочно покупать Б/У, но не стоит к этому относиться будто они поголовно сломанные и тем более разводить FUD. Думать и решать куда тратить свои кровные в конце концов вам.
У меня 20серия сдохла через 3 месяца. По гарантии поменяли
ChibiZ ChibiZ 26.05.202321:45 ответить ссылка 1.9
Хорошо что поменяли. Магазин не попытался выкрутиться и отказать?
Ни разу за 20 лет покупки электронных компонентов мне не пытались отказать в гарантии. Может потому что я не хитровыебанный мудак, который сам чёт сломал а потом бежит в магазин "оно само, дайте возврат кококо". Уж не знаю.

Даже когда материнка однажды сдохла под конец трёхлетней гарантии, мне предложили отдать мать им для починки (так как замены на такую же у них давно не было, перестали выпускать), отправили мать в сервисник московский, где её перепаяли, и затем вернули рабочую уже мне. До сих пор эта материнка живая, хотя ей наверн уже лет 10.

Впрочем, текущий комп собран вообще с бору по сосёнке, ещё до всей катавасии с войной. Поэтому на какие-то гарантии рассчитывать не приходится, ибо отправить туда где купил часть компонентов(в германию), не представляется возможным, несмотря на гарантию.

Но всё равно, покупать топовую видяху б/у с рук это надо очень верить в свою удачу.
Ну если мы затираем про 3ххх и 4ххх серию, то не исключен вариант взять БУ карту с еще имеющейся гарантией. Такого много.
Tetrix Tetrix 27.05.202313:10 ответить ссылка 0.2
Взял б/у RX580 на алике за копейки (70 c лишним бачин) и доволен как слон. Они ещё и корпус с кулерами новый поставили, чем не новая видеокарта ?
zaooza zaooza 26.05.202321:51 ответить ссылка 0.2
У меня 1070 стоит пятый год, до этого на ней майнили. (ну и я тоже по приколу, когда это имело смысл)
у новой гарантия есть,у бу хрен
Я просил с чеком от магазина. :)

Немало людей хранят их. Себя тоже приучил ни коробки выбрасывать, ни чеки.
4090, чо думать-то?
Да я вот тоже думал так, пока не увидел ваш тред, в котором 4060ti сосёт у 3060ti
Тут просто сама 4060 позорная. С остальной 14й серией все нормально.
Ну так посмотри ролик 3090ti vs 4090. Выбираешь себе паркетник который может по говнам залать, а смотришь обзоры малолитражек для многодетных мам. В чем локига?
4090 - действительно самая мощная карта, но нужна ли тебе ёбаная печка (для неё рекомендуют киловатный блок ставить, сука электросварка в пике 5 киловат потребляет, так ей можно железные конструкции варить, а тут такое чудище в пеку предлагают засовывать, я хуею с зелёных) ещё и размером с PS5, я бы на твоём месте дождался 5000-й серии, если нынешняя карта не прям ничего не может и тебе не нужны такие мощности по работе.
Если зажать теплопакет, то производительность 4090 снизится на один процент, а энергопотребление станет ровно как у 3090, например. А если пожертвовать 2,5% fps, то уже и в 300 Вт укладывается. Техпроцесс всё-таки очень энергоэффективный.

https://overclockers.ru/blog/molexandr/show/80083/regulirovka-napryazheniya-geforce-rtx-4090-pozvolyaet-sohranit-92-proizvoditelnosti-pri-230-vt
Ооо, у меня кулстори с этой 4090.

У меня есть корпус от Thermaltake - LEVEL 20 VT. Там материнка влезает не больше miniATX. (мне тогда хотелось корпус с горизонтальным расположением материнки)
Купил гигабайтовскую 4090, Она влезла, но прям впритык. И понеслась...

Проц (ryzen 5800x) начал улетать в ебеня по температурам (95 и выше градусов при норме раньше в 70 градусов).
Я, дурила, подумал, что водянка накрылась спустя полтора года. Пошел, сдал ее по гарантии.
Разочаровался в водянках, решил купить огромную топовую башню от be quiet или noctua (взял первую).
Еще подумал, что райзены видимо чет горячие, и решил перейти на 13ые интелы (и СОВЕРШЕННО забыл обзоры на них, они тоже горячие).
В общем, заменил еще мать и ОЗУ на DDR5. Итог - хуй тебе, лови троттлинги.
Догадался сунуть руку в корпус и понять, что 4090 выбрасывает свои 450 ват вверх, прямо в башню.
Потом понял, что водянка, видимо, тоже была в порядке (она стояла сверху и вытягивала эти же 450 ватт через себя)
Пошел, купил 240ую NZXT, решил поставить ее вперед, а не вверх. Пошел ты нахуй, любитель miniATX платформ. Водянка не влезает из-за огромной видяхи. Бляяя.
Психанул и купил гигантский корпус от Cougar - Panzer Max.
Теперь все влезает, НО!!!
Корпус теперь с классическим расположением материнки, видеокарта висит, надо ставить держатель. Держатель крепится в нижней правой части материнки (на 2 винта, на тех же отверстиях, которые крепят мать к корпусу). И это применимо только к полноразмерным ATX-матерям. На мини расположение отверстий другое, держатель не крепится.
Опять жопа сгорела, пошел купил полноразмерную мать. Все встало. Уже успел выдохнуть...
Новая водянка у меня имеет 2 вертушки спереди и 2 сзади. Держатель по длине не дает поставить одну из задних вертушек. Пришлось немного колхозить и на струбцине аккуратно сгибать держатель в сторону. Вышло неплохо и не скажешь, что кривой дебил ее сгибал, а не так с завода было.

Я уже лет 10 сам компы себе и друзьям собираю, но тут прям целое кретин-комбо собрал и получил историю "Как купить видеокарту за 150к и проебать потом еще 100к"
Calter Calter 26.05.202322:38 ответить ссылка 9.9
Сочуствие
Asseye Asseye 26.05.202323:20 ответить ссылка -1.9
4090 надо брать исключительно с водянкой, так ты сам выбираешь куда она тепло выкидывает
4090 надо брать сразу с квартирой за полярным кругом. И устраивать глобальное потепление.
z10dey z10dey 27.05.202302:52 ответить ссылка 6.4
Но потом очередной криво портированный гамез тебе всё равно квартиру спалит.
Только 4060 сосёт
Dekem Dekem 26.05.202320:28 ответить ссылка 1.6
Спасибо всем отписавшимся :)
ну 4070 тоже тот еще высер
Не брать ничего. Следующие флагманы будут анонсированы осенью/зимой и с их релизом цены на 3090 и 4090 сильно упадут. Потому как новых суперигор особо не ожидается, то просто перетерпи. Лучше потрать деньги на переход на платформу с DDR5 -> новый проц + новая мать + m2.SSD ~1TB. Потратишь меньше денег, ощутишь улучшение качества жизни уже, и получишь платформу для апгрейдов на следующие 5 лет
Asseye Asseye 26.05.202320:50 ответить ссылка 7.4
А лет через пять 4090 вообще будет 100 баксов стоить.
Или кусочек жареной крысы.
Чет 2080ti как-то не стоит 100$.
да и 1060 стоит больше 100евр
полез поискать
я хуею
у нас её в продаже нет вообще, а на ebay продают от неё коробку за 160 баксов
ИМХО сейчас по соотношению цена/производительность самое то RTX2060Super от китайских "брендов"
поиграть в рулетку
Это да, надо поднаготную фирм смотреть. В моём случае это была Soyo, пока что полёт нормальный, НО пришлось сразу менять термопасту и поправлять термопрокладки.
а если бы было что-то более серьёзное?

спорить с продавцом с Али, безуспешно доказывая свою правоту?

имхо, даже сэкономленные 10 тыщ.р. такого не стоят, ибо в/карта берется не на один год, а 10 тыщ - 10 раз сходить в магазин за продуками.
почему терабайт? ща как раз коплю денег и как раз не хотел покупать видюху...
Intel Core i9-13900KF - вот такой проц выбрал... норм? или я что-то пропустил
ну и мать E-ATX фиг знает какую брать. Вроде ASRock Z790 Taichi Carrara мне подходит...
spex spex 26.05.202321:05 ответить ссылка -1.8
Страшный оверкилл. Я за 6 лет едва смог загрузить свой предыдущий i7-4770k. Процессор не столько бутылочное горлышко, сколько основа для новой платформы. Лучший выбор, который ты в принципе можешь сделать - это i5-13600. Он великолепен, его хватает на всё с избытком, а цена его всего $300-350. Мать неплохая, но ты можешь взять GIGABYTE Z790 AORUS Elite AX (LGA 1700/ Intel Z790/ ATX/ DDR5/ Quad M.2/ PCIe 5.0 за примерно $260, она не хуже и примерно в 2 раза дешевле
И вообще, напиши в личку бюджет, я постараюсь дать максимально полезный покупательский совет
Asseye Asseye 26.05.202321:21 ответить ссылка 1.6
спасибище )
spex spex 26.05.202322:10 ответить ссылка 0.0
TBF зависит от того, какие задачи еще выполняются на ПК помимо игр. Мне например для разработки проц важнее видяхи бывает
если ты мамкин стример, то норм. иначе переизбыток производительности на проце. основной упор в игорях при выкручивании настроек это видюха. лучше переплату за проц вложить в неё.
Зависит для того, зачем тебе комп.
Если для игорей, i9 в нахуй не сдался. Если брать сейчас брать - бери 13700kf
13700+4090 укатают в игорях 13900+4080 ровно на разрыв в производительности ВК.
Если для рабочей работы там у АМД варианты интересней или лезь с сегмент WS на Xeon ( не хуеты с аллика, а 3647, 4189, 4677)
Heroes of Might&Magic III =)
spex spex 26.05.202323:56 ответить ссылка 1.3
У тебя 144Гц монитор?
У меня 5 мониторов, а оказалось, что подключить можно только 4 )). Три монитора 4К и 2FHD. Один из них надо купить на большую частоту
spex spex 26.05.202322:08 ответить ссылка 2.0
rn « you К your Угип?
	
- f.« •]	13
	
».	rnirnvm^mm
■1	-ÛO ■■■ ^
	
	м
-•о «	
	
	
□ L	J* 1 С* 1	□ □	1 « Sffi
spex spex 26.05.202322:16 ответить ссылка 18.4
Сука)) 5 КАРЛ!
Ну я по твоему фото могу оправдать наличие 4ех.
Вертикальный для кода, еще 2 для дефолтного пользования.
Огромный на фоне - типа кино смотреть. Но зачем еще один горизонтальный))
Tetrix Tetrix 27.05.202313:22 ответить ссылка 0.4
космосимы любишь?
Едрить, я с двумя иногда теряю курсор, а что уж про такой сетап говорить
бывает, но обычно курсор в зоне интереса, как-то даже я не задумывался.... мышкой вжи-вжи-вжи делаешь и курсор находится
spex spex 29.05.202322:54 ответить ссылка 0.0
та это похер. у тебя же выскопроизвидительное приложение воводит картинку на один экран как правило если ты не симуляторщик с 360 охватом
Когда много всего запущено, проц нагружен на 100%. Самое узкое место сейчас. Решился на апгрейд, так хочу взять топчик, чтобы несколько лет об этом не думать.
spex spex 26.05.202323:04 ответить ссылка 0.1
топчек? это 4090. а если адекват по цене, то это нужно смотреть и оценивать риски
ну я хотел 4080, но потом... сейчас сам комп, проц, мама, память, блок питания и корпус серверный... а то не лезет всё оборудование, легаси так сказать
spex spex 27.05.202300:24 ответить ссылка 0.0
Вот тут у тебя есть огромные шансы ниебически наебаться, дело в том, что 4080/4090 не лезут в серверные корпуса - они тупо широкие и еще нужен запас для подключения коннектора питания, который нужно втыкать в ребро и оно торчит в сторону. Turbo вариации производители не выпускают ( видимо приказ от куртки) Брать RTX A6000 ADA - для Героев, немношко перебор. Т.ч. смотр ив адрес таки домашних корпусов, а по поводу 4+ моников попробуй добавить вторую вк сугубо для вывода картинки. Какую-нить Quadro 600 ( похуй какую, k600/k620/p600/p62/t600) возьми на авито за 5-7 тыр, попробовать как сейчас такое работает, и если опять nvidia удумала хуету - просто скинуть на вторичке по чем брал ( у них от пакета к пакету хуета с выводом/назначением обсчитывающего ускорителя)
Технология NVIDIA® Surround не даёт расширить более чем на 4 дисплея. Как я понял по гайдам две видео карты нельзя использовать одновременно. Даже если они будут связаны SLI мостом.

Asseye посоветовал попробовать VideoWall controller, буду в ту сторону думать, т.к. хочется ещё проектор подключить.


Корпус я имел ввиду E-ATX, домашняя, типо такого:
Level 20 HT
spex spex 27.05.202305:18 ответить ссылка 0.1
Surround - не даст больше 4х моников подключить, но он в хуй не сдался, т.к. кривой до жопы, там даже компенсации по смещению относительно друг-друга нет. Mosaic - тръушней, но тут не подскажу, как на текущий момент mosaic работает в паре с обычным жирафом (geforce). Videowall за исключением нескольких вариаций за дофига денег обычный сплиттер: ты ему скармливаешь 4k, а оно их растягивает на ровный конфиг моников (2*2 / 3*3 / 2*5 и т.д.) т.е. у тебя не получится сделать - вот эти два моника единый рабочий стол, этот моник слева сверху, а этот просто справа. + требуются идентичные моники, костыли с 60Hz, а на жирных разрешениях - вообще 30Hz + ряд девайсов требует моники с синхронизацией (которые сами по себе стоят овердохуя).
Если тебе не нужен 1 рабочий стол растянутый на 2 и более моников, раньше nvidia позволяля добавлять просто любые карты и подключать к ним моники просто располагая их относительно друг-друга как пользователю будет нужно ( без компенсации рамки и расстояний, зато с компенсацией сдвига относительно друг-друга. 16 моников windows переваривает нормально, с 17ым начинаются проблемы ( могут рандомно отваливаться или забывать просыпаться)
Господи, впервые вижу человека, которому _действительно_ будет прок от топового проца и видюхи!
spex spex 27.05.202300:15 ответить ссылка 0.0
такой совет прокатил бы для условного 2007 года.

а может случится так, что санкций всыпят настолько, что бакс станет 100500 рублей, и ты будешь рад, что урвал 4090 за грошовые 200 тысяч.
Вот примерно так в прошлом году и вышло. Ждал момента купить 3060 или 3060ти. Дождался, бля. А обстановка то и не думает улучшаться. Поэтому я и взял 4070. Для моего проца её хватит с головой. Лучше синица в руках, чем дятел в заднице.
robby robby 26.05.202321:38 ответить ссылка 6.6
позавчера писал, что у меня GTX 780.
брал году в 2013 с расчётом на её долгожительство. В результате за 10 лет поиграл только Sarious Sam-2, немног в Dead space и ещё чуть ещё в что-то, уже и не помню. последние полтора года вообще в КС 1.6 гоняю, когда играть хоцца.

но т.к. бывает нужна мощща для ускорения видео (кодирование)( в Адоби Премьер и ПО для обработки фото, то начитавшись за два дня https://joyreactor.cc/post/5546167 + обзорчики на Ютуб и сайтах, вчера купил 3060 от Асус с 12ГБ. - понял, что всё равно за современными играми не гонюсь, а поиграть можно и в игрушки предыдущих десяти лет на Ультра-настройках - вроде такой карты должно для них хватить.

да, стоит многовато - почти 40т.р., можно было взять тысяч на 7-8 дешевле, но эта от Асус тиха и холодна, а мне это важно.

да к тому же у меня и остальное железо старое, PCI экспресс еще 3 версии.
зы
монитор 2к, но в играх меня вполне устроит и разрешение FullHD

в КС играю вообще в 800х600
>в КС играю вообще в 800х600
я в этом месяце впервые прошел Quake III Arena
чистую. без модов.
и тоже в оригинальном разрешении
:)
Схуяли цены на 3090 и 4090 сильно упадут? 3090 уже единицы продажах, цены чет ни на 3090, ни на 3080 ни на их Ti версии как-то не упали, что они и продолжали лежать выше ценника 4080. Выкатят 4090Ti за 1699, а на 4090 снизят до 1299 и хули толку?
зачем мне опать 2Тб ссд на 1Тб?
чтобы было куда снова апаться
к тебе пришла фея качалки
> Следующие флагманы будут анонсированы осенью/зимой
Куртка уже давно поменял время между поколениями
Паскаль появился в 2016 году
Тюринги - 2018
Амперы - 2020
Ада (4000 линейка) - 2022
Так что новых топов раньше осени 2024 мы не увидем
Посмотри вот это видео. Там подробно рассказано про карточки, сравнивают производительность и в конце есть совет что брать:
Nikius Nikius 26.05.202321:03 ответить ссылка 3.0
Кстати у i2hard наверное самый топовый контент среди всего хайтек железа
Bloody Bloody 26.05.202320:55 ответить ссылка 0.1
нууу, есть ещё Vik-on, PRO Hi-Tech, ну и куча других каналов в английском сегменте, а также каналы типа Дмитрия Бачило, у которого просто в общем детально говориться о железной тематике (пускай и не современной)
Бачило за последние три года жалкая тень себя самого информации в видео 0 а как начинает петь про байкал становиться грустно.
а в чём проблема, по-моему он как раз объективно по ним всё рассказывает, мол: "да, это далеко не интел и не АМД по мощностям, но и чудес не бывает, и чтобы байкалы и эльбрусы стали сопоставимы - нужно чтобы эти кампании испарились наряду с арм и некоторыми другими, а т.к. ниша уже занята, то и финансирование на развитие архитектур получить не выйдет и даже не смотря на это байкалы и эльбрусы показывают неплохую производительность примерно на равне с другими производителями, находящимися в таком же положении (как например китайские процы для внутреннего рынка)
топы 40xx реально топы. но цена. 30xx можно было урвать по вкусной цене на авитах, когда их сливали активно. сейчас цена на вторичке выросла, но всё ещё довольно аппетитна по сравнению с актуальным поколением. главное суметь взять нормальную. в противном случае вылезут все минусы вторички - отсутствие гарантии, возможная подстава в виде отремонтированной гнили.
я лично сменил моник на 2к 144Гц и моя 1080ти соснула. взял на авитах 3090 и сейчас во всех игорях просто как даунич выкручиваю всё на максимум.
А в некоторых выигрывает. Особенно в энергопотреблении.
И всякие 3060 с 12-ю гигабайтами и шиной на 196. С ценником в 2 раза ниже.
ну ценник не в 2 раза ниже, а 7600 все же победитель выйдет со своей ценой и производительностью. Но соглашусь, ебаный цирк происходит с видюхами последние несколько лет.
7600 GT была хорошая карта.
Ahiru Ahiru 26.05.202320:14 ответить ссылка 1.8
Ваще поебать сколько там бит, лишь бы прирост фпсов был.
Labian Labian 26.05.202320:08 ответить ссылка -0.9

его почти нет

Ace333 Ace333 26.05.202320:09 ответить ссылка 19.5
ни игр, ни фпсов
игорь, доколе
Ahiru Ahiru 26.05.202320:13 ответить ссылка 11.5
Они как я понял и стоят одинакого.
Labian Labian 26.05.202320:13 ответить ссылка -6.7
300 баксов и 400 баксов
chuma chuma 26.05.202320:19 ответить ссылка 11.3
На деле - и того больше.
Yeezy Yeezy 26.05.202320:24 ответить ссылка 8.1
Ну если смотреть на потребление , и сделать сравнение с одним потреблением энергии то новая должна быть получше. А вообще обрезали что бы покупали дороже.
А почему мне, пекабоярину с 500+ ватт блоком питания должно быть не похуй на энергопотребление.
Если часто используешь комп, то в нынешней ситуации со сверхконскими ценами на электричество(по крайней мере в большинстве стран Европы, не знаю как еще где по миру сейчас) просто нет смысла брать +/- одинаковую по мощности видюху с высоким энергопотреблением, даже если она ЗНАЧИТЕЛЬНО дешевле, разницу в цене отобьешь очень быстро...

Если не менять видеокарты как перчатки, то сейчас энергопотребление на деле самый важный параметр видеокарты как по мне.

Любую игру можно запустить на 6-8летнем ведре, если оно еще живо и это особо не меняется.

Ну и разумеется это все только если брать в расчет то, что человеку не похуй на деньги.
>со сверхконскими ценами на электричество(по крайней мере в большинстве стран Европы, не знаю как еще где по миру сейчас)
Украина 1.68грн за киловат. В ночное время - 0.84 (если счётчик двухфазовый)
Эта цена уже года три не меняется, если не дольше
Ща как раз обещают поднять вроде...
Да не смеши. Даже при разнице в 50 Вт ты будешь один киловат разницы нажигать часов 20 активной игры, то есть блин неделю, если ты не Майнер.
Не знаю как в Европе, а в РФ это 5 рублей. Вот и считай, сколько лет ты будешь отбивать эту разницу в цене. При этом 5 рублей в неделю отдавать проще чем пару десятков тысяч сразу
Кому реально совсем не похуй на энергопотребление видях, так это майнерам.
потому что Хуанг охуел и твой 500+ блок считает нищебродской хуйней, а настоящие пацаны уже переходят на киловатники
Потому что карточку разрабатывали не для тебя, а я для майнеров. Просто майнинг неожиданно крякнул немного, и на безрыбье приходится продавать её тебе.
Так они для майнеров стараются, им это важно. А пк бояре уже у них купят.
grixa grixa 26.05.202321:31 ответить ссылка -0.3
Ну майнинг бум прошел, так что теперь будут стараться для нейросетевиков.
где нужна шина и память с которыми на 4060 всё плохо
Ну так на разработку нужно время же. Поэтому как раз через годик жди карточку с шиной и памятью.
только на PCIE 4.0, на ней 8 линий, а не 16 распаяно
Внезапно скорость шины чуть ли не главный параметр видеокарты, потому что поебать на возможности видеокарты, если данные с нее тупо не успевают поступать.
Batty Batty 26.05.202320:18 ответить ссылка 3.0
когда Vega делали так же думали наверное, но внезапно она с 2048+ шиной и 20+ гб памяти все-равно у зеленых сосала почему-то
Что за сказочные цифры?
Batty Batty 26.05.202320:41 ответить ссылка 0.5
по объему памяти лень искать но точно помню была какая-то версия на 12-16-18-24 ГБ или около того, не меньше 12гб точно.
Графнний чип: 1*Х Уе£а 64 Обсяг пам'ятк 8 ГБ Розряднють шини пам’я-п: 2048 б\т Тип пам'ятк НВМ2
Тип системи охолодження: Активна
Это обратный случай, когда выстроили целое шоссе для дома престарелых. С другой стороны, ты можешь увидеть просто огромную разницу в частотах и не такую уж большую разнцу в тестах.
.NEWS
Daily Digital Digest
Мощность видеокарты, FurMark
3840 ж 2160, MSAA 8x ■ Средняя ■ Максимальная
NVIDIA GeForce RTX 2060 FE (1365/14000 МГц, 6 Гбайт)
NVIDIA GeForce GTX 1080 FE (1607/10008 МГц, 8 Гбайт)
ASUS ROG Strix GeForce RTX 2070 OC (1410/14000 МГц, 8 Гбайт)
NVIDIA GeForce RTX
Batty Batty 26.05.202320:50 ответить ссылка 1.9
Такая же хуйня. с xformers генеришь?
конечно
Смотря насколько большие. Мне 6гиг хватает для 1920*1080. А дальше - апскейл.
что ж.чисто сгенерить 1920*1080 удалось, хоть ошибки о нехватке памяти появлялась, но это заняло целую 1минуту и 22 секунды

То есть, было бы у меня больше памяти, сгенерировалось в разы быстрее
Другой вариант:
960х540, hirezfix resize: from 960x540 to 1920x1080
занял 01:51,в котором то же самое: была ошибка о нехватке памяти и поэтому так много времени заняло
Тестил недавно. 1920х1080 норм рендерится, 1536х1536 уже с горем пополам, бывает куда-ошибки, но если всё вообще отрубаю, что может врам жрать - уже получше. Выше 1536 по ширине и высоте уже не рендерит. В таком случае помогает только medvram, который использую, чтобы проапскейлить какую-то пиздатую картинку. При этом медврам может за где-то 2 с половиной минуты сделать 2048х2048 что при обычной смене разрешения, что при апскейлере. При этом заметил еще, что хайрез требовательнее к враму, чем просто то же разрешение выставить в настройках. gpu кстати 2080 super
да, тож заметила, что хайрез больше врам жрёт, пока тестила выше
А в чем проблема больших артов? Все модели заточены либо под 512 либо под 768 а дальше скриптом увеличивается и для него особо памяти не надо. 8 гигов хватает и для 1000+ размера.
Вот для обучения память надо. И для текстовых нейросеток.
radian radian 26.05.202322:22 ответить ссылка 0.0
я могу максимум 512x768 делать арт с апскейлом до 1,8. Всё, что выше, это уже скорее всего выйдет ошибки недостаточно памяти видюхи. А я хочу выше
а генерить на 1000х1000+ нет смысла, так как будет получаться каша, из-за того, что всё тренится на боле мелких размерах

Тем более, недавно я хотела расширить созданную картинку (где-то на 921x1368) до 1920×1080 через инпейнт. У меня каждая 3я попытка выбивала недостаток врам.
У меня RX 570 8GB и я не хочу ебаться с установкой на амд. Использую google colab и sagemaker с разными webui сборками. Да, там ограничение на время/мощности в бесплатных версиях, но мне хватает. Не для работы все таки.
И пока всего несколько раз упирался в недостаток местного 16GB VRAM, да и то это был controlnet с высоким разрешением. В Full HD все генерится без проблем(через 2х апскейл)
вот, эту картинку запихнуть в inpaint, и пытаться в этом же разрешении (фулхд) менять личико или всю девочку с байком, но это надо делать именно при Inpaint area: whole picture, чтобы сетка отталкивалась от всей картинки, а не только выделенного месте и немного около него.
У меня эт не получится, ошибку будет выдавать о недостатке памяти врам
так то 16 врам, а у меня 8врам. Вот я и хочу карточку с 16 врам
память же нужна больше для обучения нейросетки
И не только. При 4 Гб сетка без костылей не запустится даже. При 8 работать может, но это минимум.
В 2000 году у меня был крупный апгрейд компа. Среди прочих железок, была видеокарта nVidia Vanta. В обзорах этой видеокарты писали, что нвидии надо было создать бюджетный вариант видеокарты Riva TNT. В итоге, они выпустили ту же самую видеокарту, только с шиной памяти 64 бит вместо 128 бит. Позже, они придумают, как удешевлять карты по-другому. Например, выключая вычислительные блоки.

Это что же получается? С 2000 года шина памяти всё ещё была 128 бит? Прям с Riva TNT2 и по Maxwell? И только начиная с Pascal перешли на 256 бит шину?
Zenitur Zenitur 26.05.202320:17 ответить ссылка 1.6
Это ещё обрезок был GeForce 4 MX 440 , где шейдеры обрезали(или просто не наложили) и нормальные игры типа Doom3 не шли.
Я проходил Doom 3 уже на 9800GT. Ужас, какая скука. Комплекс Альфа 1, час геймплея, комплекс альфа 2, час геймплея, комплекс альфа 3... Самая нудная часть игры. Id Software разучились в дизайн уровней? Почеу в Doom и первые два квейка не было скучно играть?
Zenitur Zenitur 26.05.202320:33 ответить ссылка -2.1
Насколько помню, в 3м думе пытались в саспенс. Что-то у них в подходе поменялось + студия переживала не лучшие времена
Как вспомню этот кусок текстолита, нихрена на ней не запускалось, ужас а не видеокарта
elesei elesei 26.05.202320:35 ответить ссылка 0.3
И что бы поиграть в Splinter Cell , приходилось запускать эмулятор шейдеров или режим который их скипал , но типо работало еле еле.
В условном 2005 году, GeForce 4 MX 440 была "затычкой". Она была офисной видеокартой для офисных игр вроде Алавар или Pop Cap.

Однако на момент выхода она тянула вообще всё. В то время, многие игры затачивались ещё под Voodoo 2. А потому, GeForce 2 MX 400 была для таких игр прям быстрой. Морровинд и Готика, Warcraft 3, Ice Windale, Neverwinter Nights, Deus Ex, Арканум, Red Alert 2.

Однако шло время, и в какой-то момент её производительности стало не хватать. Такие игры, как NFS U, Half Life 2, Sims 2, Far Cry и Unreal Tournament 2003 шли только на минимальных настройках графики. В 2002 году можно было приобрести топовую видеокарту, которая через год уже не тянет ничего. Интересный был год.
нихрена не запускалось на рива тнт из-за отсутствия шейдеров. из-за сайлент хила 3 помню пришлось апнуться на гф, так как даже эмулятор шейдеров на моём говне не справлялся и выдавал там просто белый экран.
Помню использовал приложение 3d analyze, что бы некоторые игры запустить, которые требовали минимальные шейдеры.
Прикольная прога , с помощью неё читерил - типа wallhack по сети в call of duty2
Я только во благо. Запуск первого принца, сплинтер целла и ещё чего-то))
Всё было, но надо было зарабатывать и нужен был доп инструмент разделения сегментов
8800 Ultra - 384 bit
GTX 285\380 GTX 690- были по 512bit
Тоже и у красных.
Интересно. То есть, шина становилась всё больше, но теперь она становится всё меньше? Судя по картинке в посте.
Чет как-то дохуя ты проспал, все шины были от 64 до 512. В рядовых продуктах выше 384 последнее время не лезут.
Были даже 768 Bit видюхи - 7990 и Титан. А так потребительские 512 вполне считались нормов в прошлом десятилетии.
Частоты и пропускная способность на каждую линию растут с поколениями памяти, для гддр6 32 бита на каждые 2 гигабайта никто не израсходует, то есть пока тебе почему-то хватает 8 гигабайт на 128 бит вообще внимания можно не обращать.
Ну были разнве карты, хз че они так, может и так хвататет, у меня вон была в 2008 7900gs c 256 шиной
Покупая 2080 Ti, я думал, что серии 4ххх будет хоть в полтора раза лучше и перейду на неё, но судя по количеству игр и производительности нынешних карт, придётся ждать лучшие времена.
Ну и мой старичок, переживший два блока питания, три проца и не работавший ни дня на базовых частотах.
ManKey ManKey 26.05.202320:19 ответить ссылка 19.1
>для майнинга
Пидарас
Хужепидорас
Из-за тебя и других же таких же пидарасов - да.
Так как раз в 2017 году и был дефицит из-за бума майнинга. Не сравнить с 2020 конечно, видюхи хоть и были оверпрайз но купить их можно было. Но всё равно обидно из-за вас майнеров которые покупали по 5-10 видюх в руки. Пришлось покупать 1070 за 36к.
Если ты конечно покупал одну или две видюхи, что можешь сделать с немм всё что угодно, твое право, хоть микроволновке разогревай.
Паразит
Из за того что АМД понерфили драйвера, убрав из них поддержку VR, мне пришлось апгрейдиться. А так карты хватало тупо на все игры в разрешении 1080 на ультрах бегать.
ManKey ManKey 26.05.202320:51 ответить ссылка 6.2
что-то на красноглазом
Если интересно, могу объяснить.

fglrx - драйвер для видеокарт ATi. В 2008 году был переименован в Catalyst. Разработка была прекращена в 2015 году.

AMDGPU - новый драйвер. Основан на драйвере radeon. Создание отдельного драйвера понадобилось из-за того, что разработчики бывшего драйвера fglrx влились в проект (подробнее). Драйвер поддерживает только GCN 1.0 (Radeon 7000 и RX 200) и новее (для более старых нужно использовать всё тот же radeon).

AMDVLK - системная библиотека, реализующая Vulkan для видеокарт AMD. Изначально была самой топовой и быстрой, но потом появилась другая - RADV. В Steam Deck как раз используется RADV, так как Valve поддерживает именно эту реализацию Vulkan, пишет код и финансирует разработчиков.

DXVK - прослойка совместимости для запуска Windows-игр под Linux.

Поясню. Под Linux существует софтина под названием Wine (которую часто по ошибке называют эмулятором, но это враппер-транслятор), которая позволяет запускать программы и игры. Игры используют Direct3D, поэтому осуществляется трансляция вызовов Direct3D в OpenGL. Это страшно медленно - такие игры теряют вплоть до 30% фреймрейта. Недавно на замену транслятору WINED3D вышел DXVK, который транслирует вызовы Direct3D не в OpenGL, как раньше, а в Vulkan. Оказалось, что потери фреймрейта в этом случае составляют 0%. А каких-то багов, глюков отрисовки попросту нет.

Именно появление DXVK стало причиной создания Steam Deck.

Wine Staging - версия Wine с экспериментальными фичами. После тестирования, фичи входят в основной Wine. Также существует Proton - версия Wine, которую добавили в Linux-версию Steam для бесшовного запуска Windows-игр под Linux (так, что пользователь даже не знает, что это Windows-версия игры). Proton отличается от Wine лишь незначительно, например патч, апскейлящий изображение на весь экран.

-noreactlogin это ключ запуска Steam, позволяющий залогиниться в старых 32-битных версиях системы. Неделю назад его убрали, и как теперь логиниться, непонятно.
Zenitur Zenitur 27.05.202303:39 ответить ссылка -1.3
Linux для работы, windows для гейминга, майнинг для пидарасов.
Semecky Semecky 26.05.202323:50 ответить ссылка 12.7
Купил R9 290X после майнера пидораса восстановленную. Стоила 6к рублей. Тянет киберпанк, онлайн игры все, рдр с хорошими настройками и вообще не знаю на что её менять на HD мониторе
dealode dealode 26.05.202323:57 ответить ссылка -1.9
Купишь Oculus Quest или любой другой VR сет и поймешь. Видяха - крутейшая, маркетологи AMD - пидарасы.
ManKey ManKey 27.05.202301:00 ответить ссылка -0.2
iasuka iasuka 27.05.202311:41 ответить ссылка -0.6
>Я до сих пор не умею создавать 64-битные префиксы Wine...
WINEARCH=win64, не?
И ты до сих пор не используешь PortProton?
Да даже 1060 с 6Гб кекает с этого!
MaXM00D MaXM00D 26.05.202320:21 ответить ссылка 6.5
Neril Neril 26.05.202320:50 ответить ссылка 7.8
Гы, Моя купленная за 25к у майнеров 6700хт ебёт новую помойку от нвидии pf 45-60к. Приятно
то хня с коннектором который норовит загореться, то свистоперделки картинку не улучшают, и в 4к не может карта. огромное потребление энергии и сильно зарезаные карты среднего сегмента. я не хочу оплачивать чужой банкет с коксом и шлюхами - 1060 ещё поработает
ну вроде как все определились, что коннектор просто долбоебы неплотно вставляли и была малая площадь контакта.
Tetrix Tetrix 27.05.202313:24 ответить ссылка -1.2
почему с другими коннекторами такой хуйни не было?
Ты сейчас рили будешь оправдывать криворуких? Если руки из жопы и в башке нихуя нет, то ты и без коннекторов/переходников найдешь как комп угробить.
НУ ИЗВИНИТЕ, для вас не предусмотрели защиту от долбаеба, думали вы догадаетесь вставить коннектор ровно до щелчка/конца/победы (нужное подчеркнуть)
Tetrix Tetrix 27.05.202316:01 ответить ссылка -2.3
ты прямо абсолютно уверен что сгоревшие коннекторы не вставили до щелчка? с дури конечно можно и молекс наоборот воткнуть, но я скорее поверю что новый разъём по сравнению со старым ещё сырой оказался
Я купил 3060TI а потом понял, что монитор тянет максимум 60кГц и fullHD. Но зато все игры летают. Еще бы, сука, не летали.
Lictor Lictor 26.05.202321:23 ответить ссылка 1.5
Я когда тоже купил в том году 3060 Ti думал всё летать будет, но потом с большим удивлением понял что мой Ryzen 5 2600 мешает раскрытию видяхи, пришлось и проц апгрейдить.
купил 2080ти(давненько уже).. пришлось проц+мать+бп брать.. и корпус ибо хуета здоровая как жопа носорога + на монитор переходники.. сюка... дороже вышло чем планировал

купи видяху и все.. говорили они.. это просто говорили они
ZakRum ZakRum 26.05.202322:48 ответить ссылка 1.1
Жиза купил у китайцев кошерную ртх 3070 асус таф за 24к и проц говна р5 2600. Так у друга ноут на 3060 которая как десктопная 3050 выдаёт больше фпс в варзоне 2 чем у меня, но там и проц i5-11400 да и подсистема памяти по лучше, но сам факт.
У тебя там монитор с 60 кГц случайно порталы в соседние вселенные не открывает?
yoburg yoburg 27.05.202302:09 ответить ссылка 5.7
Пардон. Герц конечно.
Lictor Lictor 27.05.202312:48 ответить ссылка 0.0
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
RX VEGA vs GEFORCE GTX
RADEON RX VEGA 56
RADEON RX VEGA 64
GEFORCE GTX 1060
GEFORCE GTX 1070
GEFORCE GTX 1080
o
200
400
600
800
1000
подробнее»

Radeon nvidia Видеокарта

RX VEGA vs GEFORCE GTX RADEON RX VEGA 56 RADEON RX VEGA 64 GEFORCE GTX 1060 GEFORCE GTX 1070 GEFORCE GTX 1080 o 200 400 600 800 1000
АМОЛ
BADEON
RX6700 XT
RADEON
RX 6700 XT
RAOEON
«X6700 XT
RAOEON
RX6700 XT
RAaeoN
ИК 6700 X !
ULkU

BADEON
RXS700XT
AMOSI
BADEON -----
fix 6700 XT 4DB
AMOD
RADEON
RX6800 XT
AMDCI
BADEON
fiX 6700 XT
AMDCl
BADEON
RX 6700 XT
AMDJ1
RADEON
RX6800 XT
AHD.1
BADEON
RX 6700 XT
подробнее»

майнер хуже пидораса Видеокарта Radeon nvidia AMD криптовалюта все плохо

АМОЛ BADEON RX6700 XT RADEON RX 6700 XT RAOEON «X6700 XT RAOEON RX6700 XT RAaeoN ИК 6700 X ! ULkU BADEON RXS700XT AMOSI BADEON ----- fix 6700 XT 4DB AMOD RADEON RX6800 XT AMDCI BADEON fiX 6700 XT AMDCl BADEON RX 6700 XT AMDJ1 RADEON RX6800 XT AHD.1 BADEON RX 6700 XT
МАМА: СЫНОК У НАС
ЕСТЬ ЛОМА
ДОМА:
подробнее»

nvidia Radeon Видеокарта

МАМА: СЫНОК У НАС ЕСТЬ ЛОМА ДОМА:

INT“
ш
nVIDIA Л