首页>科技 >内容

Google释出高效能切割模型ShapeMask

科技2021-02-19 06:03:59
最佳答案

Google开发了一种称为ShapeMask的实例切割演算法,能辨识图像中的物体实例,并且产生高精确度的遮罩,现在Google开源ShapeMask模型,让社群有办法以兼具速度和精确度的方法产生图像物件遮罩。

要以程式辨识各种形状、颜色和大小并非简单的工作,但这些工作对于医学图像分析,和照片编辑等应用来说十分重要,因此Google开发出了新图像分割模型ShapeMask。ShapeMask可辨识并追蹤特定物件实例的边界,像是城市街道上有多辆汽车的图像,ShapeMask可以突出显示图像中每辆不同颜色大小的汽车,而突出显示的区域就称为遮罩。

ShapeMask是利用着名的物件侦测模型RetinaNet,来侦测图像中各种物件的位置和大小,但是RetinaNet模型并无法产生物件的遮罩,因此Google在以RetinaNet定位物件之后,会将相似外观的画素进行分组,逐步完善侦测到的物件形状,最终产生精确的遮罩。

Google提到,对于依赖自动化图像分割的应用程式,开发者通常需要使用大型资料集,且又需要频繁的变更资料集,为了快速迭代大型逼真的资料集,企业需要扩展图像分割模型训练的规模。

而ShapeMask在大批次的训练,比其他图像分割模型还要有效率得多,因为ShapeMask可以在大数量的机器学习加速器上,进行分散式的ShapeMask训练。Google以256核心的Cloud TPU v3分片,在40分钟内就可以完成以COCO图像分割资料集训练ShapeMask模型,这比起8核心的单一Cloud TPU装置所花费的数小时,还要快上许多,而且无论以哪一种规模的Cloud TPU Pod来运算ShapeMask模型,都不需要修改任何程式码。

免责声明:本文由用户上传,如有侵权请联系删除!