deepnode高级版_deepdive安装
DeepSeek R1本地部署高级版指南
1、DeepSeek R1本地部署高级版,如今备受关注。随着AI发展,自己动手部署,能让你更好利用其强大功能。
2、首先讲环境准备,若用Ollama,这是个通用工具,支持Linux、Windows、Mac。官网下载安装包,按指引操作。
3、安装好Ollama后,在命令行窗口输入ollama -v ,能显示版本,即安装成功,这是DeepSeek R1本地部署高级版的重要一步。
4、接着下载DeepSeek R1模型,进入Ollama官网搜索,找到DeepSeek R1,按电脑配置选参数规模,像1.5B、7B 等。
5、若不知电脑适合啥模型,去DeepSeek官网问,选联网搜索,它会给建议,助你完成DeepSeek R1本地部署高级版。
6、选好模型,复制右上角命令,如ollama run deepseek-r1:7b ,到控制台运行,等下载完成,模型就到手。
7、要是通过LMStudio部署DeepSeek R1本地部署高级版,先官网下载安装包,支持多系统。
8、LMStudio默认模型下载地址是Hugging Face平台,要改国内可访问镜像源,需修改两个文件。
9、右键点击桌面上LMStudio图标选属性,点“打开文件所在位置”,找到两个文件:LMStudio文件位置\resources\app\.webpack\renderer\main_window.js 以及LMStudio文件位置\resources\app\.webpack\main\index.js 。
10、main_window.js文件大,用vscode打开,将https://huggingface.co/ 全部替换为https://hf-mirror.com/ ,改完重新打开LMStudio。
11、之后点击左侧放大镜按钮,搜索框搜r1 ,点搜索结果下载,若没结果,查替换或网络问题。
12、还可部署r1 api,点击LMStudio主界面第二个按钮进开发者界面,打开api部署服务,Setting里全打开。
13、若用手机端,下迅游手游加速器,搜Deepseek,不仅能加速,还有详细本地部署教程。
14、想有好交互,下载Chatbox,浏览器搜就行,客户端或网页版均可,安装后打开。
15、Chatbox里模型提供方选Ollama API ,模型选Deepseek -r1 ,设置好就能对话。
16、若要远程访问,得正确配置并暴露远程Ollama服务,设两个环境变量:OLLAMA_HOST=0.0.0.0 ,OLLAMA_ORIGINS=* 。
17、MacOS上,命令行终端输入:launchctl setenv OLLAMA_HOST "0.0.0.0" ,launchctl setenv OLLAMA_ORIGINS "*" ,再重启Ollama应用。
18、Windows上,通过任务栏退出Ollama,打开设置或控制面板搜“环境变量”,编辑账户环境变量。
19、创建新变量OLLAMA_HOST ,值设0.0.0.0 ;创建OLLAMA_ORIGINS,值设* ,保存设置后启动Ollama应用。
20、DeepSeek R1本地部署高级版,按这些步骤来,你就能成功部署,享受强大AI功能。
» 转载保留版权:百科全库网 » 《deepnode高级版_deepdive安装》