赞
踩
萨沙·布罗茨基
计算机世界 | 太平洋夏令时间 2024 年 3 月 28 日下午 2:59
Shutterstock
微软的 Copilot AI 很快就能在个人电脑上本地运行,而不是依赖云。
英特尔告诉 Tom's Hardware,该聊天机器人可以在未来支持人工智能的 PC 上运行,这些 PC 需要整合能够每秒超过 40 万亿次操作 (TOPS) 的神经处理单元 (NPU)——目前任何消费级处理器都无法比拟这一性能水平。
英特尔提到,这些人工智能电脑将配备直接在机器上处理“Copilot 的更多元素”。 Copilot 目前主要依赖云处理来完成大多数任务,导致明显的延迟,尤其是对于次要请求。增强本地计算能力预计将减少此类延迟,从而有可能提高性能和隐私。
英特尔没有立即回应《Computerworld》的置评请求。
正如之前报道的那样,在 Windows 11、ChatGPT、Adobe Firefly 或类似的 genAI 工具上使用 Copilot 实际上并不在您的计算机上处理任务,而是在使用大量资源和电力的远程数据中心中处理任务。虽然可以在本地运行稳定扩散文本到图像模型或 Llama 语言模型等应用程序,但要获得高质量的结果通常需要具有强大处理能力的 PC,尤其是高速 GPU,这是以前加密货币挖掘所追捧的。
最近硬件方面的进步,特别是最新英特尔 Meteor Lake 芯片和 AMD 产品中包含的神经处理单元,引发了有关人工智能 PC 的讨论。这些 NPU 被设计为专用的低功耗组件,旨在促进生成式 AI 模型的本地执行,从而提高 AI 处理效率。预计 NPU 将成为未来 PC 的标准功能,使 genAI 任务能够在后台无缝运行,即使使用电池供电也是如此。
例如,微星最新的人工智能引擎可以识别您的笔记本电脑活动,并自动调整电池配置、风扇速度和屏幕设置以适应您的任务。当您玩游戏时,它可以将性能提升到最大;切换到处理 Word 文档,一切都会恢复正常。
本地人工智能趋势并不局限于个人电脑。例如,谷歌的 Pixel 8 和 Pixel 8 Pro 智能手机配备了 Tensor G3 芯片,谷歌声称该芯片为设备上的生成式人工智能奠定了基础。该技术已经支持人工智能驱动的功能,例如 Recorder 应用程序中的音频摘要和 Gboard 键盘中的智能响应生成。然而,尽管取得了这些进步,此类硬件目前还无法在本地运行广泛的人工智能模型,例如谷歌的 Bard AI、Copilot 或 ChatGPT。相反,这些设备运行更紧凑的模型。
本地人工智能处理的好处之一是它可以增强网络安全。网络安全顾问 John Bambenek 指出,公司在将人工智能集成到知识产权任务中时遇到的一个重大风险是管理数据流和访问。
“我们已经看到足够多的第三方对云服务的破坏,我们知道即使做出承诺,数据也可能会丢失,”他补充道。 “如果组织可以在本地使用 Microsoft 的 Copilot AI,CISO 仍然会觉得他们可以控制自己的数据,这将消除可能存在的最大采用障碍。”
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。