发布网友 发布时间:2022-04-23 18:47
共5个回答
热心网友 时间:2023-10-13 14:32
支持。
GTX 1650基于图灵架构的小核心12nm TU117,桌面896个流处理器,笔记本1024个流处理器,搭配128-bit 4GB GDDR5显存,功耗在桌面上60-80W,笔记本上35-50W。
除了继续精简流处理器和显存,并且不支持光线追踪、DLSS深度学习抗锯齿(至少目前没有说会开放),GTX 1650其实还偷偷地在多媒体编码上缩了水。
GTX1650特点:
1、GTX1650的TDP其实仅为75W,散热器的规格比GTX 1660 GAMINGX要低,可能GTX1650并不会太热,毕竟标准 TDP 是75W,只有1根热导管,以S字样穿插前后散热片以及中间GPU接触面。
2、GAMING X 系列的外观都差不多,GTX 1650 上面也是采用2颗8.5公分双风扇。TORX Fan 3.0 双滚珠轴承风扇,叶片上有特殊的弧形以及龙鳍造型。底部可以看到一根热导管,另外散热器长度是超过PCB一些。
热心网友 时间:2023-10-13 14:33
支持。
GTX 1650基于图灵架构的小核心12nm TU117,桌面896个流处理器,笔记本1024个流处理器,搭配128-bit 4GB GDDR5显存,功耗在桌面上60-80W,笔记本上35-50W。
除了继续精简流处理器和显存,并且不支持光线追踪、DLSS深度学习抗锯齿(至少目前没有说会开放),GTX 1650其实还偷偷地在多媒体编码上缩了水。
卷积运算受计算速度的约束比较大。因此,要衡量GPU运行ResNets等卷积架构的性能,最佳指标就是FLOPs。张量核心可以明显增加FLOPs。Transformer中用到的大型矩阵乘法介于卷积运算和RNN的小型矩阵乘法之间,16位存储、张量核心和TFLOPs都对大型矩阵乘法有好处,但它仍需要较大的显存带宽。
需要特别注意,如果想借助张量核心的优势,一定要用16位的数据和权重,避免使用RTX显卡进行32位运算!GPU和TPU的标准性能数据,值越高代表性能越好。RTX系列假定用了16位计算,Word RNN数值是指长度<100的段序列的biLSTM性能。
热心网友 时间:2023-10-13 14:33
支持。
GTX 1650同样是基于12nm工艺生产,CUDA流处理器数目为896个,GTX 1660比GTX 1650多了有57%,两者的流处理器数量差距还是比较巨大的,所以很可能中间还要有一个GTX 1650 Ti之类的显卡来填补这个空位。
显存方面自然还是用的GDDR5,容量4GB也没什么说的了,50定位的显卡给4GB显存也很合理,显存频率是8004MHz,比之前的GTX 1050双子要高1000MHz,所以显存带宽提高,对性能提升也有一定帮助。纹理单元、Rops之类的就相应提升了一个档次。
公版核心频率为1486~1665MHz,相比上一代的GTX 1050/Ti要高出不少,而且这个数字其实不重要,最重要的是最终的BOOST频率,图灵架构的它理论上也是能加速到很高的。
显卡的TDP依然保持为75W,和GTX 1050 Ti保持一致,所以能看到这堆AIC的型号多是不需要外接供电的,少部分是单6Pin即可。
根据它的流处理器和频率来推测,以及考虑图灵架构相比帕斯卡的效率提升,预估性能会比GTX 1050 Ti强20%,顶天了其实25%就差不多了...所以到现在为止,我对前面NV说的30%提升还是稍微存疑的(滑稽)。
热心网友 时间:2023-10-13 14:34
这里是支持cuda的显卡要求
支持CUDA的GeForce和TITAN产品
左边是台式,右边是笔记本
计算能力3.1以上的才行,没有出现再上面的就是不支持
热心网友 时间:2023-10-13 14:35
我用之后,尝试了cuda9cuda10.1都无法运行深度学习,有人说这个显卡根本不行不支持