谷歌将ML Kit的设备上API与Firebase分离

导读Google广泛使用人工智能来提供高度相关且准确的Web和图像搜索结果。除了Web平台上的Search之外,Google的机器学习模型还提供了Android手机

Google广泛使用人工智能来提供高度相关且准确的Web和图像搜索结果。除了Web平台上的Search之外,Google的机器学习模型还提供了Android手机上的各种AI应用程序,从Google Lens上的视觉搜索到Pixel设备闻名的计算摄影。除了自己的应用程序外,Google还允许第三方开发人员借助ML Kit(Firebase的一部分,SDK(软件开发工具包),它是移动设备的在线管理和分析仪表板)无缝地将机器学习功能集成到其应用程序中发展。从今天开始,Google宣布对ML Kit进行重大更改,并将使设备上的API独立于Firebase。

ML Kit在Google I / O 2018上宣布,旨在简化向应用程序添加机器学习功能的过程。ML Kit在发布时包含文本识别,面部检测,条形码扫描,图像标签和地标识别API。在2019年4月,谷歌以智能回复和语言识别的形式向开发者推出了首个自然语言处理(NLP)API。一个月后,即在Google I / O 2019上,Google推出了三个新的ML API,用于设备上翻译,对象检测和跟踪,以及AutoML Vision Edge API,用于通过视觉搜索识别特定对象,例如花朵或食物的类型。

ML Kit包含基于设备的API和基于云的API。如您所料,设备上的API使用保存在设备本身上的机器学习模型处理数据,而基于云的API将数据发送到托管在Google的Cloud Platform上的机器学习模型,并通过Internet连接接收已解析的数据。由于设备上的API在没有Internet的情况下运行,因此与基于云的API相比,它们可以更快地解析信息并且更安全。设备上的机器学习API也可以在运行Android Oreo 8.1及更高版本的Android设备上进行硬件加速,并与Google的神经网络API(NNAPI)以及在Qualcomm,联发科,海思半导体等最新芯片组上找到的特殊计算模块或NPU一起运行。

Google最近发布了一篇博客文章,宣布ML Kit的设备上API现在将作为独立SDK的一部分提供。这意味着ML Kit中的设备上API(包括文本识别,条形码扫描,面部检测,图像标签,对象检测和跟踪,语言识别,智能回复和设备上翻译)将在单独的SDK下提供,该SDK可以无需Firebase即可访问。但是,Google确实建议在Firebase中使用ML Kit SDK将其现有项目迁移到新的独立SDK。已启动一个新的微型网站,其中包含与ML Kit相关的所有资源。

除了新的SDK外,Google还宣布了一些更改,使开发人员可以更轻松地将机器学习模型集成到其应用程序中。首先,人脸检测/轮廓模型现在作为Google Play服务的一部分提供,因此开发人员不必为其应用单独克隆API和模型。这样可以减小应用程序包的大小,并能够更无缝地在其他应用程序中重用模型。

其次,Google已为所有API添加了Android Jetpack Lifecycle支持。当应用程序进行屏幕旋转或被用户关闭时,这将有助于管理API的使用。此外,它还有助于在使用ML Kit的应用程序中轻松集成CameraX Jetpack库。

第三,谷歌宣布了一项早期访问计划,以便开发人员可以在其余版本之前访问即将发布的API和功能。该公司现在在ML Kit中添加了两个新的API,供选定的开发人员预览它们并分享他们的反馈。这些API包括:

实体提取可检测电话号码,地址,付款号码,跟踪号码以及文本中的日期和时间等内容,并

姿势检测用于低延迟检测33个骨骼点,包括手和脚

最后,Google现在允许开发人员使用TensorFlow Lite中的自定义机器学习模型替换ML Kit中的现有图像标签以及对象检测和跟踪API 。该公司很快将宣布有关如何查找或克隆TensorFlow Lite模型以及如何使用ML Kit或Android Studio的新ML集成功能对其进行训练的更多详细信息。

免责声明:本文由用户上传,如有侵权请联系删除!