AI算力新物种到来 Mac如何从创意工具变身AI工作站?
如果你在网络上搜索“Mac”、“AI”、“大模型”等关键词,会发现不少网友正在用自己的Mac,搭建属于自己的AI环境。从经济实惠的Macmini,到面向专业人士的MacStudio,不同需求的用户,都能在Mac上部署一个专属于自己的AI大模型,提升工作效率。
能够在一台小设备上部署AI大模型,离不开Mac的“统一内存架构”。得益于这项架构,CPU和GPU可以共享同一个高速内存池。这意味着,一台16GB的基础款Macmini,就等同于拥有了一块16GB“显存”的计算卡,而一台顶配的MacStudio,更是相当于拥有了512GB的超大显存。在运行AI工具时,所有显存都能被有效利用,这也让Mac在AI时代找到了属于自己的新赛道。
那么,Mac能不能像AI计算卡一样,通过叠加的方式来部署更复杂的模型,从而实现更多专业级的工作?
用“搭积木”的方式实现性能增长
传统意义上讲,想要实现AI运算能力提升的方法非常简单,那就是竭尽所能地增加显存。然而得益于统一内存架构,“增加显存”在Mac上变得非常简单,只需要增加内存容量即可。几个月前,来自英国的创业公司ExoLabs就使用了四台搭载M4Pro芯片的Macmini搭建集群,成功部署了236b的DeepSeek-Coder-V2混合专家模型,随后他们又利用了两台MacStudio搭建集群,并成功部署了671b的DeepSeek-V3模型。
借助高速的Thunderbolt5串联
这种利用类似“搭积木”的方式实现AI性能提升,也让ExoLabs看到了更多可能性。这次,我有幸见到了ExoLabs使用四台顶配版MacStudio,并借助高速的Thunderbolt5串联,打造了一台价格超越普通家用汽车的AI怪兽。当然,这套昂贵的AI设备,也拥有令人惊讶的能量,它能够同时流畅运行两个参数量高达671B的DeepSeek大语言模型,这也让我们看到在AI浪潮席卷全球的今天,Mac也凭借其独特的架构,找到了一个专属于自己的全新定位。
ExoV2
为了充分利用好它的性能,ExoLabs还开发了一个调度工具ExoV2,它会根据用户部署的模型,自动分配需要的内存。例如部署一个8bit量化的DeepSeekV3模型,大概需要700G的统一内存,而调度工具此时会将其平均分配到两台MacStudio设备上并完成加载,在实际使用上,它的token生成速度基本上与云端大模型无异,足以满足用户的使用需求。
另外,ExoV2还能够实现同步运行多个大模型。例如在运行DeepSeekV3模型的同时,还能再运行一个DeepSeekR1,实现两个大模型并行工作。
用更强大的工具为中小企业提供帮助
对于广大个人用户而言,简单易用的云端AI工具足以满足日常需求,但对于数据隐私有较高需求的企业或专业人士,本地部署AI工具,也能避免将包含商业机密、客户信息或敏感研究数据的资料上传到云端。
MacStudio集群提供的本地化方案,可以说完美地解决了中小企业的顾虑。我更愿意将云端模型和本地模型看作是“通用工具”与“专业工具”的区别。云端大模型是强大的通用工具,知识渊博,但无法保证数据的绝对私密。而基于MacStudio搭建的本地模型,则更像是一套为你量身定制的专业工具。
想象一下,一家律师事务所可以将海量的过往案例、法律文书输入本地模型进行训练,打造一个专属于自己的、精通本所业务的AI法律顾问。或者是一家研发企业,将自己所有过往的参考文档、项目资料喂给电脑,训练出一个专属于企业自己的知识库。这些数据全部保存在本地,彻底杜绝了隐私泄露的风险,这为高价值知识型企业的AI化转型提供了一条更安全、更可控的路径。
值得一提的是,通过Mac来搭建AI工具,也是一项成本极低的选择。虽说四台MacStudio的价值甚至超越了一台汽车,但如果利用英伟达的计算卡来实现相同的AI能力,可能需要部署多大20张A100显卡,其成本甚至高达数百万。
四台MacStudio组成的AI集群
而且别忘了,这些庞然大物对电量的消耗同样巨大,甚至还需要独立的散热空间才能确保稳定工作。相比之下,四台MacStudio的满载功耗只有不到400W以内,而且大小也只有一个行李箱那么大。
写在最后
在AI的未来版图中,除了依赖互联网服务商提供的云端算力,同样也存在着对本地化、专业化、高隐私性解决方案的巨大需求,而Mac也在AI时代下,凭借其独特的架构优势精准地切入了这片蓝海市场。它不仅仅是创意工作者的生产力工具,更成为了专业人士和中小企业触手可及、兼顾性能与隐私的AI工作站。
这,或许才是Mac在AI时代真正的雄心所在。