公众号手机端

windows2016内存使用飙升(微软太狠了!内存低不让用Windows 11 AI,16GB起步?)

zhiyongz 7个月前 (04-10) 阅读数 #Windows 10

毫无疑问,AI 技术已经成为了智能手机、电脑等个人运算设备的下一个转折点。在上游芯片领域,高通、英特尔等品牌已经完成了 NPU、AI 芯片等产品的产品布局,正旗帜鲜明地朝着 AI 技术落地进发。在产品侧,自 2023 年骁龙峰会结束后,除 Apple 外各大品牌都争先推出采用 AI 大语言模型技术的具体产品。在前段时间才结束的 CES 2024 上,三星、华硕、联想、戴尔等知名电脑品牌都发布了自己的「AI 电脑」产品,在三星「开箱日」(Unpacked)活动中,三星更是发布了其首批「AI 手机」——Galaxy S24 系列

就连为了照顾老旧硬件兼容性而常常慢半拍的微软,也决定在未来的 Windows 11/12 中加入更多的 AI 功能。在 2023 年 Ignite 2023 开发者大会上,微软 CEO 纳德拉甚至表示微软成为了一家「Copilot 公司」。

图片来源:微软

但从硬件配置上,有些电脑似乎还没有准备好迎接 AI 时代。

市场调查机构 TrendForece 的一则资讯中提到:

微软已将 AI PC 中的内存基线设置为 16 GB。从长远来看,TrendForce 预计人工智能PC将促进对 PC 内存的年度需求增加,消费者升级趋势进一步推动了这一需求。

换句话说,如果你电脑内存小于 16GB,微软的 Copilot AI 很可能与你无缘。

16GB 门槛并不高?

对于你我这种数码爱好者,16GB 的内存基线似乎不高,毕竟在 2023 年 12 月的 Steam 硬件调查中,内存小于 16GB 的玩家占比只有不到 22%。但就像刚刚说的那样,这个数字只能代表 Steam 玩家。考虑到实际状况,这个 22% 并不具有普适性。再说了,微软的 Copilot AI 面向的更多的是工作场景,直接用 PC 玩家的高配游戏电脑来参考并不科学。

图片来源:Steam

考虑到大多数公司的商用电脑更换周期为 3 年,我们不妨以 3 前,既 2020 年的配置来做参考。根据 Digital Trened 的数据,2020 年普通消费者的笔记本电脑通常只配备 8GB 内存。比如在 2020 年某市某数据中心的竞价公告中,所采购的电脑内存就只有 8GB,未达到「基准线」。

图片来源:重庆市政府采购网

当然了,考虑到 Windows 11 的实际表现,微软和 Copilot 其实没有挑三拣四的底气:根据 Statcounter 公布的数据,截至 2023年 11 月,Windows 11 的系统占比仅为26.66%。与此同时 Windows 10 占比高达 68%,其余的所有系统版本加起来占比都不到 Windows 10 的 50%。

再联系到前段时间微软正想尽一切办法「驱赶」用户改用 Windows 11,甚至不惜「开闸放水」允许用户以自己的方式激活 Windows 11,小雷并不认为微软会在内存上为未来的 Windows 11 用户设计障碍,很有可能会在最后关头放开内存限制,或允许用户全量升级,但不保证关键应用的运行结果。

不过话又说回来,现在的 AI 大语言模型在智能手机上都能正常运行,高通甚至在 2023 骁龙峰会展示了极为高效的手机 AI 大语言模型,难道 8GB 电脑就真的跑不动 AI 吗?或者说有没有什么办法可以让 AI 大语言模型应用运行在 8GB 手机上呢?

办法自然是有的,比如将本地模型和线上模型混合调用的混合式 AI 大语言模型。

「分布式」混合大模型是未来?

从运行位置来说,当前AI 大语言模型应用大致可以分为三类:本地运行、远端运行和混合运行。本地运行很好理解,即整个模型就跑在当前正在交互的系统中,可以离线运行的 AI 大语言模型应用和专业玩家在自己电脑上部署的离线模型都属于这一类。

远端运行与之相反,指输入输出的设备和运行大语言模型的设备不在同一系统下的情况。那些通过网页、微信小程序交互、或整个模型运行在远端服务器上的 AI 应用就属于远端运行。

图片来源:微软

本地运行和远端运行各有各的优势和劣势,比如本地运行可以断网运行,将用户数据保留在设备本地,降低数据泄露的风险;本地模型在响应速度上也不依赖于网速,可以显著提升用户体验。远端运行虽然要将数据发往远端服务器并等待输出结果返回,但因为远端服务器一般都是 HPC 集群,拥有的算力和用户本地资源根本不是同一个数量级,所以在生成式模型应用中拥有更快的生成速度和更好的运算精度。

而混合运行模式则取两家之长,根据应用的具体需求,可以灵活地在本地和云端之间分配计算任务。例如,一些对响应速度要求高或需要即时处理的任务可以在本地执行,而那些对计算能力要求更高的分析和学习任务则可以在云端进行。这种灵活性使得AI系统能够更好地适应不同的使用场景,提供更加定制化的服务。

首先,混合模型在数据隐私和安全方面具有显著优势。随着数据泄露事件的频繁发生,消费者对于个人信息安全越来越关注。在混合模型中,敏感数据可以在本地处理,不必传输到云端,这大大降低了数据泄露的风险。对于一般消费者而言,这意味着他们可以更加放心地使用基于AI的应用,如智能家居设备和个人健康数据分析工具,无须过分担心个人隐私被侵犯。

其次,混合模型提供了更好的性能和响应速度。对于需要实时反应的应用,如语音助手和在线游戏,本地计算能够提供更快的处理速度,避免了因数据传输至云端而产生的延迟。而对于那些需要复杂计算和大量数据分析的任务,比如图像识别和大型语言模型,可以利用云端的强大计算能力来处理,从而提供高效率的AI服务。对消费者来说,这种结合了本地快速响应和云端高效计算的模式能够在不同场景下提供更加流畅和高效的体验。

图片来源:微软

灵活性是混合模型的另一个重要优势。它允许消费者根据自己的需求和偏好来选择数据处理的方式。例如在家里,消费者可能更倾向于使用本地计算来处理个人数据,以确保隐私;而在外出时则可能更依赖云端服务来获取信息和娱乐内容。这种灵活性使得混合模型能够适应不同消费者的多样化需求。

此外,混合模型对于设备兼容性和更新维护也更加友好。由于云端计算可以提供最新的AI模型和算法,消费者不必频繁更换本地设备就能享受到最新的AI技术。同时,对于一些本地计算任务,旧设备依然可以有效运行,这减少了设备更新的压力,延长了设备的使用寿命,对于注重成本效益的消费者而言,这是一个重要的优势。

甚至微软自己也曾多次表示对混合 AI 大语言模型的重视,在 8GB 内存的「死线」下,相信微软也绝对有能力提供基本的 AI 决策能力,让 AI 大语言模型成为一项「普惠」功能。

不过考虑到近几年闪存技术突飞猛进的发展,16GB 的基准线未来也可能成为办公电脑的标配,毕竟这事关 AI 和「生产力」。相信在 AI PC 的浪潮面前,16GB 内存很可能会成为 2024 年笔记本市场的「起步配置」。

图片来源:Apple

当然了,售价高达 12999 元却依旧只有 8GB 内存的 M3 Macbook Pro 不在「AI 普惠工程」之内。

版权声明

本站所有文章来源于本站原创或网络,如有侵权请联系删除。文章观点并不代表本站观点,请网友自行判断,如涉及投资、理财请谨慎应对!

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

热门