手机设备型号:Xiaomi 12S
处理器为Snapdragon 8 Gen 1
Android 13
(本机运行了yolov8s、以及采用了8gen3的手机运行yolov8m)
安装AidLux2.1.0新版本apk后,若首次登陆新版本应用时出现以下问题:
往往是因为之前下载安装过前置版本的aidlux应用(请先卸载前置版本再安装新版本),退出应用,重启手机,再次登录即可解决问题。
进入登录AidLux图形化界面时,根据弹窗提示,按照提示步骤取消虚进程限制。
1.开启获取屏幕信息(有“获取单个应用或整个屏幕共享”选项的,选择“整个屏幕共享”);
2.打开手机无线调试,点击匹配设备码;
若出现以下弹窗提示,重启应用再次完成步骤即可。
AidLux2.1.0 同样支持通过cloud_ip反馈的ip和端口,通过浏览器页面打开aidlux桌面;
xfce 桌面变更为 ubuntu-desktop,支持通过本地xwayland 或者远程VNC 的方式访问AidLux 内置的ubuntu20.04 操作系统,同时配备火狐浏览器,可进行网页浏览和资源下载。
AidLux2.1.0 功能方面Aidlite SDK 新增支持:
搭载Snapdragon芯片的移动设备,能够以aidlite-remote 运行模型广场上的部分模型例如yolov8s、yolov8m;
接下来以手机端运行yolov8m 中型目标检测模型(例子部分使用了Snapdragon 8 gen 3处理器的手机做演示)
模型广场 点击链接可跳转到模型广场,当前模型广场含400多个主流模型可供下载:
选择yolov8模型后,可选择设备型号和需要的数据精度,点击模型和代码进行下载,得到的压缩包可拖拽至网页端打开的文件资源系统里(图中为其他案例的示意效果,演示拖拽压缩包上传)
也可通过MMS工具(AidLux2.1.0应用中心内置的工具)对模型广场的模型进行拉取,例如:
首先进行登录操作,登陆后即可查看模型详情,在命令行终端输入:
mms login -u <用户名> -p <密码>
用户名和密码可在官网进行注册
使用mms工具进行可拉取模型的查看
mms list <模型名称> #例如yolov8
输入命令下载模型:
mms get -m yolov8m -p int8 -c qcs8550 -b qnn2.36
# 下载 yolov8m 模型,数据精度为 INT8, 针对 QCS8550 芯片平台优化,推理框架为 QNN2.36
下载好的模型进行解压后,文件结构通常如下
/model_farm_yolov8s
|__ models # 模型文件
|__ python # 基于python的模型推理代码
|__ cpp # 基于cpp的模型推理代码
|__ README.md # 模型信息说明 & 相关软件依赖安装引导
查看README.md文件,查看模型调用的步骤详情,按照readme的步骤进行操作即可:
需要注意的是,手机平台使用AidLite SDK(AI推理框架工具链)进行模型推理时,会因为手机无法调用 QNN DSP 加速,而初始化失败,导致模型无法成功运行,而Aidlux2.1.0可通过
aidlite remote的方式进行QNN DSP加速,以python调用方式为例,
编辑yolov8s.py 文件的相关配置信息,修改aidlite的调用类型:
aidlite.ImplementType.TYPE_LOCAL → aidlite.ImplementType.TYPE_REMOTE
即将“local”改为“remote”
保存后即可运行下列命令并查看结果:
cd model_farm_yolov8m_qcs8550_qnn2.36_int8_aidlite
python3 python/run_test.py --target_model ./models/cutoff_yolov8m_qcs8550_w8a8.qnn236.ctx.bin --imgs ./python/bus.jpg --invoke_nums 10
YOLOv8m在手机上的运行结果:











