[关闭]
@heavysheep 2018-09-21T18:56:12.000000Z 字数 1126 阅读 808

索迪斯DEMO

未分类


索引页

[get] http://47.92.240.9:11005/demo

说明

本次DEMO提供两个上传方法。
【常规近景】对应常规的人物识别算法,通用于识别比较近的人体。
【斜角优化】是根据食堂常面对的情况,对斜角识别人体进行的优化

由于没有真实的食堂数据,目前的模型是根据公共数据集训练而成,准确率会受到较大的限制。再得到真实的数据并训练后,准确度会有较大的提升。

效果

【宽松】检测前
x_1
【宽松】常规近景
z_1
【宽松】斜角优化
y_1
【密集】检测前
x_2
【密集】常规近景
z_2
【密集】斜角优化
y_2

参数说明

硬件
CPU: 8核 Intel Xeon Platinum 8163(Skylake)2.5 GHz
内存: 16GB

标准图像大小及运算速度:
图像大小: 640*640
标准大小下的运算速度: 1600ms

可继续提升的方案

  1. 如能提供真实场地图片,可大幅度提升准确率。现有模型是在公共数据集训练而成,不符合实际场景的色调、拥挤程度等,如有真实照片,可以在此模型上继续训练,由此可将角度距离色调实际遮挡制服颜色等关键特征训练至模型,能大幅度提高识别效果。
  2. 可通过滑动平均算法,对任意不变摄像头的最近几次识别结果进行平均判断。由于模型非常敏感,任意像素点都可能造成一些影响,对某个目标偶发的识别失误是正常的,因此对近邻结果投票能极大的提升准确度。
  3. 后台设有识别阈值,该阈值越高,识别越严格,在近景下误判越少;阈值越低,识别越宽松,对愿景(小型人体)的识别越好,可根据摄像头所处情况调节(主要是角度和纵深)。
  4. 后台设有验证阈值,该阈值越高,对错误框体的验证越宽松;该阈值越低,对错误框体的验证越严格,可根据实际情况和其他参数,可根据摄像头所处情况调节(主要是角度和纵深。
  5. 使用GPU和更高阶的模型,会大幅度提升准确度和硬件成本。

API

api接口: [get/post] http://47.92.240.9:11005/api

[人数识别]

说明: 接受JPG或PNG的三通道(RGB)图片。

请求参数

参数 类型 是否必填 默认值 说明
method string predict_single_image 方法名
b64_image string b64编码的二进制图片
ms float 允许通过的最低分数
filter_outer float 删除大于中位数倍数的图片

返回值

参数 类型 是否必填 默认值 说明
b64_image string b64编码的二进制图片
used_time int 运算时长(ms)
count int 人数
添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注