HyperAI超神经
Back to Headlines

在MacBook上免费运行Qwen3:通过Localforge轻松编写代码和创建网站

2 天前

在MacBook上免费运行Qwen3模型进行编程 发布日期:2025年5月1日 今天,我尝试在MacBook上本地运行最新的Qwen3模型,并通过LocalForge将其置于代理循环中,以便能够免费进行编程。 Qwen3是一种性能强大的生成式AI模型,可以通过Ollama网站(https://ollama.com/library/qwen3)或Hugging Face的MLX社区(https://huggingface.co/collections/mlx-community/qwen3-680ff3bcb446bdba2c45c7c4)获取。选择适合自己Mac硬件的模型,我们就可以开始操作了。 操作步骤 首先,运行以下命令来下载并启动模型(您可以根据需要更改端口,准备下载数十GB的数据): $ mlx launch --model qwen3 --port 8082 下载完成后,您会看到类似如下信息: 2025-05-01 13:56:26,964 - INFO - Starting httpd at 127.0.0.1 on port 8082... 这意味着模型准备好接受请求了,现在可以配置LocalForge了。 配置LocalForge 获取最新版本的LocalForge:访问https://localforge.dev ,根据您的平台通过npm安装,或者直接下载适用于OSX的DMG文件或适用于Windows的ZIP文件。 安装完成后,打开设置,添加模型提供商: 我添加了两个提供商:一个是Ollama,用于较弱的模型;另一个是MLX的Qwen3。 创建自定义代理: 在设置的“代理”选项卡中点击“+添加代理”,输入一个名称,如“qwen3-agent”。 点击铅笔图标编辑新代理,在顶部的“主要”和“辅助”卡片中进行配置(“专家”卡片可以忽略)。 使用新的代理 完成以上配置后,按下Command+S保存设置,关闭代理编辑器,然后关闭设置页面。回到主聊天窗口,在顶部的选择框中选择您的新代理(“qwen3-agent”)。 现在,您的代理已经准备好使用各种工具了。例如,您可以输入以下命令查看当前文件夹的内容: use LS tool to show me files in this folder 这个命令成功执行了,Qwen3通过LocalForge调用了系统命令并返回了文件列表。 实际应用示例 为了展示Qwen3的强大功能,我用它创建了一个网站。整个过程非常顺利,从配置到实际使用都非常便捷。Qwen3不仅能够处理简单的命令,还可以进行复杂的编程任务,为开发者提供了极大的便利和效率。 行业人士的评价与相关背景 行业人士普遍认为,Qwen3的本地运行能力和通过LocalForge的整合,极大地提升了开发者的生产力和创造力。这对于个人和小型团队尤其有益,因为他们无需依赖昂贵的云计算资源,就能体验高性能的AI编程助手。LocalForge是一个开源项目,旨在为用户提供一个本地运行AI模型的平台,支持多种模型和工具的集成。Qwen3背后的开发者社区也表现出了极高的活跃度,不断优化和改进模型的性能。

Related Links