互动平台AI对话

Web LLM

借助WebGPU让Llama2在浏览器运行,70B的模型

标签:

Web LLM项目是将大型语言模型和基于LLM的聊天机器人引入Web浏览器的项目。它在浏览器中运行,无需服务器支持,并使用WebGPU进行加速。这为我们构建AI助手并在享受GPU加速的同时保护隐私提供了许多有趣的机会。

该项目的目标是将LLM直接嵌入到客户端,并在浏览器内直接运行。如果能够实现这一点,我们可以为客户端提供个人AI模型的支持,从而降低成本,提高个性化和保护隐私。现在的客户端性能已经非常强大了。如果我们能简单地在浏览器中打开并直接使用AI,那将更加令人惊叹。

目前生态系统中已有一定程度的成熟度,该项目对这个问题给出了积极的答案。

您可以通过以下步骤尝试Web LLM的演示:

  1. 安装Chrome Canary,这是Chrome的开发者夜间版本 [https://www.google.com/chrome/canary/]。
  2. 打开终端,并使用以下命令启动Chrome Canary:/Applications/Google\ Chrome\ Canary.app/Contents/MacOS/Google\ Chrome\ Canary –enable-dawn-features=allow_unsafe_apis
  3. 打开Web LLM的聊天演示 [https://webllm.mlc.ai/]。
  4. 在演示中选择您想要尝试的模型,并输入您的问题或输入。
  5. 点击“发送”按钮,即可获得答案。

相关导航

暂无评论

暂无评论...