安卓手机&平板玩转Deepseek大模型

安卓手机&平板玩转Deepseek大模型

一、硬件载体

硬件:准备一个安卓手机或平板
内存:16G(最好大于16G,方便运行更大参数的大模型)
存储:没有要求

二、部署DeepSeek

2.1 下载并安装aidlux


在手机应用市场或者AidLux官网下载AidLux软件,下载安装后记得先注册,避免闪退,如果想常驻后台可以看之前的文章,也可以保持AidLux在前台运行,避免在后台导致安卓系统回收APP资源,导致软件异常退出。

2.2 远程登录AidLux进行配置


打开桌面的Cloud_ip,查看ip地址,并且在浏览器中输入该ip地址。
Tips:手机或平板要与你的电脑连接同一个wifi。
默认账号:aidlux ;密码:aidlux

登录后打开终端:

进入命令行界面:


现在准备工作已经做好了,接下来下载大模型

2.3 下载ollama进行配置


下载ollama,默认sudo密码aidlux;
命令行依次输入下面命令:

curl -fsSL https://ollama.com/install.sh | sh
ollama  serve & 
#让ollama服务在后台运行
ollama -v
#安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama

(下载过程)

2.4 下载并运行deepseek模型


ollama pull deepseek-r1:7b
ollama list

下载完成后可以查看已下载模型

运行模型

ollama run deepseek-r1:7b


出现>>>即可开始提问啦 :melting_face:

赶紧去试试吧~

1 个赞

:astonished_face:吓得我赶紧去试试

aidlux作为一个基于ARM的跨生态AI应用开发部署平台,赋予了终端无限的可能,不仅可以部署deepseek大模型,也可以随时变成开发平台

啊啊,为什么我的每次都是运行失败,,

是不是需要科学上网?

失败在哪一步???

需要的。建议是ollam和模型下载都开着

首先ollama下载不下来,因为要科学上网,可以自己该脚本
其次,不建议在上面跑模型,速度太慢了,1token/s还不如直接调用官方api :sweat_smile:

别问,问就是ollama对于手机支持并不好,熄屏直接性能砍到0.2倍

请问一下是跑在手机cpu上还是gpu或者npu

手机是CPU,NPU需要在高通的开发板上面运行,因为手机的NPU型号太多