去购买 更新于2024-03-28 [已过期]Apple Mac Studio M2 Max 32GB+512GB 基础款 $1749 M2 Ultra 64GB $3599 B&H 现有 Apple Mac Studio M2 Max 32GB+512GB 基础款,现价$1749.00(指导价$1999),M2 Ultra 64GB+1TB $3599。 美国境内免运费。 点击购买>> 小编推荐:刚好价格差一倍,性能也差一倍。苹果已经All in AI了,想6月WWDC浅尝AI的同学可以买12C+30C+16C Neural Engine的M2 Max 版Mac Studio,想追随苹果All in AI的同学,现在开始蹲4090也来得及。感谢 @阿桶木 提供的爆料信息,点击参与爆料 $1749.00 $1999.00 Apple Mac Studio M2 Max 32GB+512GB 基础款 $1749 $3599.00 $3999.00 Apple Mac Studio M2 Ultra 64GB+1TB English 报告错误 B&H 16 9 3 写评论 评论 最新评论 16 wang大Q : 在家跑Ai跑大模型的是不是没啥事干 在家跑Ai跑大模型的是不是没啥事干 2024-04-01 删除 | 举报 | 8 | 回复 @生化危机8 : 嫌电费太便宜了吧 嫌电费太便宜了吧 2024-04-10 删除 | 举报 | 赞 | 回复 XalchymiaC : 裝裝B別太认真 裝裝B別太认真 2024-03-29 删除 | 举报 | 赞 | 回复 Trumpmiddlefinger : 视频工作室可以买的。感觉如果怀着跑大模型的话,还是等等M3 Ultra 吧,这个毕竟太贵了,多等两个月,说不定同价买更好的性能。 穷人想跑大模型,可以推荐几张特斯拉老显卡+ 二手workstation. 会慢不少,但是至少能跑,甚至只需要1000刀以内。 视频工作室可以买的。感觉如果怀着跑大模型的话,还是等等M3 Ultra 吧,这个毕竟太贵了,多等两个月,说不定同价买更好的性能。 穷人想跑大模型,可以推荐几张特斯拉老显卡+ 二手workstation. 会慢不少,但是至少能跑,甚至只需要1000刀以内。 2024-03-29 删除 | 举报 | 赞 | 回复 @jacklxc : 似乎还是云计算更合适。老卡光是折腾硬件都累死,除非目的仅仅是让它跑起来 似乎还是云计算更合适。老卡光是折腾硬件都累死,除非目的仅仅是让它跑起来 @jacklxc 回复 @匿名用户 : 作为nlp phd我都想不到什么项目会那么高强度地在开发阶段需要马不停蹄算300天。毕竟云计算只为你实际用的量付费。如果真的要pretrain LLM,应该也有funding买显卡?还是觉得Mac是个伪需求,看似性价比高而已。 作为nlp phd我都想不到什么项目会那么高强度地在开发阶段需要马不停蹄算300天。毕竟云计算只为你实际用的量付费。如果真的要pretrain LLM,应该也有funding买显卡?还是觉得Mac是个伪需求,看似性价比高而已。 3条相关评论 mcsinking : 大模型得128g起步 大模型得128g起步 2024-03-29 删除 | 举报 | 4 | 回复 @Trumpmiddlefinger : 128G 也不太够,但是m2 ultra 的192 貌似并不是真192, 并不能完全用到192G,reddit 说最多只能用到148G,刚好能跑目前最大的llama模型。 128G 也不太够,但是m2 ultra 的192 貌似并不是真192, 并不能完全用到192G,reddit 说最多只能用到148G,刚好能跑目前最大的llama模型。 2024-03-29 删除 | 举报 | 2 | 回复 boomkem : 弄ai要不n卡要不云服务器,不太懂为啥要在mac本地跑。 弄ai要不n卡要不云服务器,不太懂为啥要在mac本地跑。 2024-03-29 删除 | 举报 | 1 | 回复 @chenwanfeng : n卡这么大显存的比mac贵好多倍… n卡这么大显存的比mac贵好多倍… 2024-04-01 删除 | 举报 | 赞 | 回复 @boomkem 回复 @chenwanfeng : 一般推断不用那么大显存吧,跑的话m系列芯片速度还是慢了点。不过确实便宜很多,n卡那个显存贵的。 一般推断不用那么大显存吧,跑的话m系列芯片速度还是慢了点。不过确实便宜很多,n卡那个显存贵的。 2024-04-01 删除 | 举报 | 赞 | 回复 大可不必 : 128g 打下折吧 128g 打下折吧 2024-03-29 删除 | 举报 | 1 | 回复 forregistuse : Pro 竟然不是祖传 8g内存? Pro 竟然不是祖传 8g内存? 2024-03-28 删除 | 举报 | 赞 | 回复 Checkee : 是不是说明M2的MBP也要开始有折扣了 是不是说明M2的MBP也要开始有折扣了 2024-03-28 删除 | 举报 | 赞 | 回复 @crear : M3 pro的mbp都有折扣了 M3 pro的mbp都有折扣了 2024-03-28 删除 | 举报 | 赞 | 回复
最新评论 16
: 在家跑Ai跑大模型的是不是没啥事干
在家跑Ai跑大模型的是不是没啥事干
: 嫌电费太便宜了吧 嫌电费太便宜了吧
: 裝裝B別太认真 裝裝B別太认真
: 视频工作室可以买的。感觉如果怀着跑大模型的话,还是等等M3 Ultra 吧,这个毕竟太贵了,多等两个月,说不定同价买更好的性能。 穷人想跑大模型,可以推荐几张特斯拉老显卡+ 二手workstation. 会慢不少,但是至少能跑,甚至只需要1000刀以内。 视频工作室可以买的。感觉如果怀着跑大模型的话,还是等等M3 Ultra 吧,这个毕竟太贵了,多等两个月,说不定同价买更好的性能。 穷人想跑大模型,可以推荐几张特斯拉老显卡+ 二手workstation. 会慢不少,但是至少能跑,甚至只需要1000刀以内。
: 似乎还是云计算更合适。老卡光是折腾硬件都累死,除非目的仅仅是让它跑起来 似乎还是云计算更合适。老卡光是折腾硬件都累死,除非目的仅仅是让它跑起来
回复 @匿名用户 : 作为nlp phd我都想不到什么项目会那么高强度地在开发阶段需要马不停蹄算300天。毕竟云计算只为你实际用的量付费。如果真的要pretrain LLM,应该也有funding买显卡?还是觉得Mac是个伪需求,看似性价比高而已。 作为nlp phd我都想不到什么项目会那么高强度地在开发阶段需要马不停蹄算300天。毕竟云计算只为你实际用的量付费。如果真的要pretrain LLM,应该也有funding买显卡?还是觉得Mac是个伪需求,看似性价比高而已。
: 大模型得128g起步 大模型得128g起步
: 128G 也不太够,但是m2 ultra 的192 貌似并不是真192, 并不能完全用到192G,reddit 说最多只能用到148G,刚好能跑目前最大的llama模型。 128G 也不太够,但是m2 ultra 的192 貌似并不是真192, 并不能完全用到192G,reddit 说最多只能用到148G,刚好能跑目前最大的llama模型。
: 弄ai要不n卡要不云服务器,不太懂为啥要在mac本地跑。 弄ai要不n卡要不云服务器,不太懂为啥要在mac本地跑。
: n卡这么大显存的比mac贵好多倍… n卡这么大显存的比mac贵好多倍…
回复 @chenwanfeng : 一般推断不用那么大显存吧,跑的话m系列芯片速度还是慢了点。不过确实便宜很多,n卡那个显存贵的。 一般推断不用那么大显存吧,跑的话m系列芯片速度还是慢了点。不过确实便宜很多,n卡那个显存贵的。
: 128g 打下折吧 128g 打下折吧
: Pro 竟然不是祖传 8g内存? Pro 竟然不是祖传 8g内存?
: 是不是说明M2的MBP也要开始有折扣了 是不是说明M2的MBP也要开始有折扣了
: M3 pro的mbp都有折扣了 M3 pro的mbp都有折扣了