谷歌的开源AI图像分割模型为云TPU优化
谷歌的定制张量处理器(TPU)芯片是去年谷歌云平台客户可以使用的最新一代芯片,专为人工智能推理和培训任务量身定制,如图像识别,自然语言处理和强化学习。为了支持开发应用程序的开发,Mountain View公司拥有稳定的开源架构,如BERT(一种语言模型),MorphNet(一种优化框架)和UIS-RNN(一种扬声器二值化系统),通常还附带了数据集。延续这一思路,谷歌今天在其库中添加了两种新的图像分割模型,并声称这两种模型都实现了部署在云TPU pod上的最先进的性能。
该模型- Mask R-CNN和DeepLab v3+ -自动标记图像中的区域,并支持两种类型的分割。第一类是实例分割,它为一个或多个对象类(例如,家庭照片中的人)的每个实例提供一个惟一的标签,而语义分割则根据图像所代表的对象或纹理类对图像的每个像素进行注释。(例如,一个城市的街景可能被标记为“人行道”、“人行道”和“建筑物”。)
正如谷歌所解释的,Mask R-CNN是一个两阶段的实例分割系统,可以同时定位多个对象。第一个阶段从输入照片中提取模式,以识别潜在的感兴趣区域,而第二个阶段在为每个输入照片生成像素级掩码之前,对这些建议进行细化,以预测对象类。
另一方面,DeepLab 3+优先考虑分割速度。使用谷歌最新一代TPU硬件(v3)上的TensorFlow机器学习框架,在开源PASCAL VOC 2012图像语料库上进行培训,在不到5小时的时间内完成培训。
本周起,Google为Mask R-CNN和Deeplab 3+提供的协作平台上的教程和笔记就可以使用了。
TPU是一种特定于应用程序的集成电路(asic),它是液态冷却的,设计用于插入服务器机架,内部用于支持谷歌照片、谷歌云视觉API调用和谷歌搜索结果等产品。第一代设计于5月在谷歌I发布。最新一代(第三代)于2018年5月发布。谷歌声称它可以提供高达100千万亿次浮点运算的性能,大约是其第二代芯片的8倍。
谷歌并不是唯一一家为人工智能优化的云托管硬件。今年3月,微软开设了Brainwave,这是一支用于加速机器学习操作的现场可编程门阵列(FPGA),用于选择Azure客户。(微软表示,这使得其为Bing搜索引擎提供动力的模型的性能提高了10倍。)据报道,亚马逊正在开发一种人工智能芯片,该芯片将加速其Alexa语音引擎的模型训练。
https://venturebeat.com/2019/04/24/microsoft-earnings-q3-2019/
来源: venturebeat