当前位置:   article > 正文

使用FireBase机器学习套件的新功能autoML搭建训练发布模型,并在Android上使用进行图片分类(1)_firebasemlmodeldownloader

firebasemlmodeldownloader
  1. 在Gradle 文件(通常是 app/build.gradle)中,在文件末尾添加一行内容。

apply plugin: ‘com.android.application’

android {

// …

}

// 添加以下内容:

apply plugin: ‘com.google.gms.google-services’ // Google Play services Gradle plugin

第四步:将 Firebase SDK 添加到APP

在(应用级)Gradle 文件(通常是 app/build.gradle)中,添加核心 Firebase SDK 的依赖项:

buildscript {

repositories {

// Check that you have the following line (if not, add it):

google() // Google’s Maven repository

}

dependencies {

// Add this line

classpath ‘com.google.gms:google-services:4.3.3’

}

}

allprojects {

repositories {

// Check that you have the following line (if not, add it):

google() // Google’s Maven repository

}

}

应用级 build.gradle(<项目>/<应用模块>/build.gradle):

apply plugin: ‘com.android.application’

// Add this line

apply plugin: ‘com.google.gms.google-services’

dependencies {

// add the Firebase SDK for Google Analytics

implementation ‘com.google.firebase:firebase-analytics:17.2.2’

// add SDKs for any other desired Firebase products

// https://firebase.google.com/docs/android/setup#available-libraries

}

最后,按 IDE 中显示的栏中的“立即同步”:

  1. 同步您的应用以确保所有依赖项都具有必要的版本。

  2. 运行应用,向 Firebase 发送已成功集成 Firebase 的验证信息。

设备日志将显示说明初始化已完成的 Firebase 验证信息。如果我们是在具有网络访问权限的模拟器上运行应用,则 Firebase 控制台会通知说应用连接已完成。

使用 “ML KIT” 的 autoML 搭建训练发布模型


第一步:下载数据集:

我这里使用的是使用 TensorFlow 的 flower-image 数据集,创建图像分类或标签模型,在训练了该模型后,将其用于应用程序中的设备上图像标签。

这个数据集又5种标签的雏菊,蒲公英,玫瑰,向日葵和郁金香花,这样后面的 app 就可以使用模型标识图像的标签之一。

下载花卉图像数据集。

第二步:上传和训练数据集:

转到 Firebase 控制台-> Machine Learning,然后单击 “AutoML” 。

现在,单击添加数据集

给数据集命名并选择第二个选项,然后单击继续。

现在,单击浏览文件,然后为花朵图像数据集选择一个.zip文件,该文件已在前面的第一步中下载。

现在,等待所有三个步骤都已完成。

之后,点击训练模型

现在选择第三个选项(高精度),然后单击开始训练。

现在,等待模型训练完成。

第三步:使用训练完成的模型:

在模型列表中单击第一个模型,并在模型名称上记下我们以后需要的名称

现在,就可以使用模型了

先查看一下刚刚训练完的模型的评估结果:

在 Android Studio 上编写 app 使用该模型


我们可以通过2种方式使用此模型

(1)远程(发布到firebase并在运行时从您的应用程序远程加载)

(2)本地(与应用程序下载并捆绑)

首先,通过单击“发布”按钮来发布模型,然后单击“下载”并将zip文件保存在所需的位置。

之后,解压缩下载的zip文件,然后复制所有三个文件。

现在转到Android Studio,然后

创建 Assets 文件夹绑定本地模型

在应用程序上单击鼠标右键,选择“NEW”->“Folder”->“Assets”

然后单击完成。

现在,通过右键单击assss-> New-> Directory在assets文件夹中创建目录

给出一个名字,例如model,然后点击回车。

现在,将所有三个复制的文件粘贴到此文件夹中。

修改 build.gradle 以使用模型

将以下内容添加到应用的build.gradle文件中,以确保Gradle在构建应用时不会压缩模型文件:

android {

// …

aaptOptions {

noCompress“ tflite”

}

}

如下所示:

现在,在应用程序级别build.gradle中为ML Kit Android库添加以下两个依赖项:

implementation ‘com.google.firebase:firebase-ml-vision:24.0.1’

implementation ‘com.google.firebase:firebase-ml-vision-automl:18.0.3’

现在添加一个Button,ImageView和TextView来选择图像,显示图像并在活动布局中显示带有谓词百分比的标签。

<?xml version="1.0" encoding="utf-8"?>

<RelativeLayout

xmlns:android=“http://schemas.android.com/apk/res/android”

android:layout_width=“match_parent”

android:layout_height=“match_parent”

android:background=“@drawable/timg”>

<ImageView

android:id=“@+id/image”

android:layout_width=“match_parent”

android:layout_height=“wrap_content”

android:layout_above=“@+id/selectImage”

android:layout_marginBottom=“50dp” />

<Button

android:id=“@+id/selectImage”

android:layout_width=“136dp”

android:layout_height=“wrap_content”

android:layout_centerInParent=“true”

android:background=“@color/orange_normal”

android:text=“Select Image !”

android:textColor=“@color/colorWite” />

<TextView

android:id=“@+id/text”

android:layout_width=“wrap_content”

android:layout_height=“wrap_content”

android:layout_below=“@id/selectImage”

android:layout_centerHorizontal=“true”

android:layout_marginTop=“50dp”

android:textColor=“@android:color/black”

android:textSize=“16sp” />

从手机上获取图片

要想判断图片的标签,首先肯定是要在手机上获取图片

打开android studio并将此依赖关系粘贴到应用程序级别的build.gradle文件中,如下所示:

implementation ‘com.theartofdev.edmodo:android-image-cropper:2.7.+’

通过添加CropImageActivity来修改AndroidMainfest.xml:

<activity

android:name=“com.theartofdev.edmodo.cropper.CropImageActivity”

android:screenOrientation=“portrait”

android:theme=“@style/Base.Theme.AppCompat”/>

打开android studio并将此依赖关系粘贴到应用程序级别的build.gradle文件中,如下所示:

implementation ‘com.theartofdev.edmodo:android-image-cropper:2.7.+’

通过添加CropImageActivity来修改AndroidMainfest.xml:

<activity

android:name=“com.theartofdev.edmodo.cropper.CropImageActivity”

android:screenOrientation=“portrait”

android:theme=“@style/Base.Theme.AppCompat”/>

点击按钮即可打开CropImageActivity:

button.setOnClickListener(new View.OnClickListener() {

@Override

public void onClick(View v) {

CropImage.activity().start(MainActivity.this);

// fromRemoteModel();

}

});

最后,覆盖活动结果并更新ImageView:

@Override

protected void onActivityResult(int requestCode, int resultCode, @Nullable Intent data) {

super.onActivityResult(requestCode, resultCode, data);

if (requestCode == CropImage.CROP_IMAGE_ACTIVITY_REQUEST_CODE) {

CropImage.ActivityResult result = CropImage.getActivityResult(data);

if (resultCode == RESULT_OK) {

if (result != null) {

Uri uri = result.getUri(); // 图片在手机上的路径

imageView.setImageURI(uri); // 设置图片到 imageview

textView.setText(“”); // 为了之前的文本不会被添加到新中

setLabelerFromLocalModel(uri);

// setLabelerFromRemoteLabel(uri);

} else

progressDialog.cancel();

} else

progressDialog.cancel();

}

}

获得输入图像标签的方式:

主要有以下三步:

1.加载模型

2.准备输入图像

3.运行图像标签器

1.对于远程模型:
1. 声明所有变量

FirebaseAutoMLRemoteModel remoteModel; // 用来加载远端仓库模型

FirebaseVisionImageLabeler labeler; // 用于运行图像标签器

FirebaseVisionOnDeviceAutoMLImageLabelerOptions.Builder optionsBuilder; // 使用哪个选项在本地或远程运行标签器

ProgressDialog progressDialog; // 显示进度对话框时,模型正在下载…

FirebaseModelDownloadConditions conditions; // 下载模型的conditions

FirebaseVisionImage image; // 准备输入图片

TextView textView; // 用于显示输入图片的标签

Button button; // 从设备中选择图像

ImageView imageView; // 用于显示选定的图像

private FirebaseAutoMLLocalModel localModel;

2. 加载模型

3.准备输入图像

4.运行图像标签器

2.对于本地模型:
  1. 声明所有变量并选择图像

  2. 加载模型

  3. 运行图像标签器

只需要稍作修改:

这里放入完整代码:

package com.developndesign.firebaseautomlvisionedge;

import androidx.annotation.NonNull;

import androidx.annotation.Nullable;

import androidx.appcompat.app.AppCompatActivity;

import android.app.ProgressDialog;

import android.content.Intent;

import android.net.Uri;

import android.os.Bundle;

import android.util.Log;

import android.view.View;

import android.widget.Button;

import android.widget.ImageView;

import android.widget.TextView;

import android.widget.Toast;

import com.google.android.gms.tasks.OnCompleteListener;

import com.google.android.gms.tasks.OnFailureListener;

import com.google.android.gms.tasks.OnSuccessListener;

import com.google.android.gms.tasks.Task;

import com.google.firebase.FirebaseApp;

import com.google.firebase.ml.common.FirebaseMLException;

import com.google.firebase.ml.common.modeldownload.FirebaseModelDownloadConditions;

import com.google.firebase.ml.common.modeldownload.FirebaseModelManager;

import com.google.firebase.ml.vision.FirebaseVision;

import com.google.firebase.ml.vision.automl.FirebaseAutoMLLocalModel;

import com.google.firebase.ml.vision.automl.FirebaseAutoMLRemoteModel;

import com.google.firebase.ml.vision.common.FirebaseVisionImage;

import com.google.firebase.ml.vision.label.FirebaseVisionImageLabel;

import com.google.firebase.ml.vision.label.FirebaseVisionImageLabeler;

import com.google.firebase.ml.vision.label.FirebaseVisionOnDeviceAutoMLImageLabelerOptions;

import com.theartofdev.edmodo.cropper.CropImage;

import java.io.IOException;

import java.util.List;

public class MainActivity extends AppCompatActivity {

FirebaseAutoMLRemoteModel remoteModel; // For loading the model remotely

FirebaseVisionImageLabeler labeler; //For running the image labeler

FirebaseVisionOnDeviceAutoMLImageLabelerOptions.Builder optionsBuilder; // Which option is use to run the labeler local or remotely

ProgressDialog progressDialog; //Show the progress dialog while model is downloading…

FirebaseModelDownloadConditions conditions; //Conditions to download the model

FirebaseVisionImage image; // preparing the input image

TextView textView; // Displaying the label for the input image

Button button; // To select the image from device

ImageView imageView; //To display the selected image

private FirebaseAutoMLLocalModel localModel;

@Override

protected void onCreate(Bundle savedInstanceState) {

super.onCreate(savedInstanceState);

setContentView(R.layout.activity_main);

textView = findViewById(R.id.text);

button = findViewById(R.id.selectImage);

imageView = findViewById(R.id.image);

progressDialog = new ProgressDialog(MainActivity.this);

progressDialog.setMessage(“Please Wait…”);

progressDialog.setCanceledOnTouchOutside(false);

button.setOnClickListener(new View.OnClickListener() {

@Override

public void onClick(View v) {

CropImage.activity().start(MainActivity.this);

// fromRemoteModel();

}

});

}

private void setLabelerFromLocalModel(Uri uri) {

localModel = new FirebaseAutoMLLocalModel.Builder()

.setAssetFilePath(“model/manifest.json”)

.build();

try {

FirebaseVisionOnDeviceAutoMLImageLabelerOptions options =

new FirebaseVisionOnDeviceAutoMLImageLabelerOptions.Builder(localModel)

.setConfidenceThreshold(0.0f)

.build();

labeler = FirebaseVision.getInstance().getOnDeviceAutoMLImageLabeler(options);

image = FirebaseVisionImage.fromFilePath(MainActivity.this, uri);

processImageLabeler(labeler, image);

} catch (FirebaseMLException | IOException e) {

// …

}

}

@Override

protected void onActivityResult(int requestCode, int resultCode, @Nullable Intent data) {

super.onActivityResult(requestCode, resultCode, data);

if (requestCode == CropImage.CROP_IMAGE_ACTIVITY_REQUEST_CODE) {

CropImage.ActivityResult result = CropImage.getActivityResult(data);

if (resultCode == RESULT_OK) {
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数初中级Android工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则近万的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Android移动开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Android开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且会持续更新!

如果你觉得这些内容对你有帮助,可以扫码获取!!(备注:Android)

面试复习路线,梳理知识,提升储备

自己的知识准备得怎么样,这直接决定了你能否顺利通过一面和二面,所以在面试前来一个知识梳理,看需不需要提升自己的知识储备是很有必要的。

关于知识梳理,这里再分享一下我面试这段时间的复习路线:(以下体系的复习资料是我从各路大佬收集整理好的)

  • 架构师筑基必备技能
  • Android高级UI与FrameWork源码
  • 360°全方面性能调优
  • 解读开源框架设计思想
  • NDK模块开发
  • 微信小程序
  • Hybrid 开发与Flutter

知识梳理完之后,就需要进行查漏补缺,所以针对这些知识点,我手头上也准备了不少的电子书和笔记,这些笔记将各个知识点进行了完美的总结:

Android开发七大模块核心知识笔记

《960全网最全Android开发笔记》

《379页Android开发面试宝典》

历时半年,我们整理了这份市面上最全面的安卓面试题解析大全
包含了腾讯、百度、小米、阿里、乐视、美团、58、猎豹、360、新浪、搜狐等一线互联网公司面试被问到的题目。熟悉本文中列出的知识点会大大增加通过前两轮技术面试的几率。

如何使用它?

1.可以通过目录索引直接翻看需要的知识点,查漏补缺。
2.五角星数表示面试问到的频率,代表重要推荐指数

《507页Android开发相关源码解析》

只要是程序员,不管是Java还是Android,如果不去阅读源码,只看API文档,那就只是停留于皮毛,这对我们知识体系的建立和完备以及实战技术的提升都是不利的。

真正最能锻炼能力的便是直接去阅读源码,不仅限于阅读各大系统源码,还包括各种优秀的开源库。

《Android学习笔记总结+移动架构视频+大厂面试真题+项目实战源码》,点击传送门即可获取!

关于知识梳理,这里再分享一下我面试这段时间的复习路线:(以下体系的复习资料是我从各路大佬收集整理好的)

  • 架构师筑基必备技能
  • Android高级UI与FrameWork源码
  • 360°全方面性能调优
  • 解读开源框架设计思想
  • NDK模块开发
  • 微信小程序
  • Hybrid 开发与Flutter

[外链图片转存中…(img-W6g682I3-1712373342138)]

知识梳理完之后,就需要进行查漏补缺,所以针对这些知识点,我手头上也准备了不少的电子书和笔记,这些笔记将各个知识点进行了完美的总结:

[外链图片转存中…(img-2BW2vPWR-1712373342138)]

《960全网最全Android开发笔记》

[外链图片转存中…(img-2lBc0bka-1712373342139)]

《379页Android开发面试宝典》

历时半年,我们整理了这份市面上最全面的安卓面试题解析大全
包含了腾讯、百度、小米、阿里、乐视、美团、58、猎豹、360、新浪、搜狐等一线互联网公司面试被问到的题目。熟悉本文中列出的知识点会大大增加通过前两轮技术面试的几率。

如何使用它?

1.可以通过目录索引直接翻看需要的知识点,查漏补缺。
2.五角星数表示面试问到的频率,代表重要推荐指数

[外链图片转存中…(img-Pnhtemhn-1712373342139)]

《507页Android开发相关源码解析》

只要是程序员,不管是Java还是Android,如果不去阅读源码,只看API文档,那就只是停留于皮毛,这对我们知识体系的建立和完备以及实战技术的提升都是不利的。

真正最能锻炼能力的便是直接去阅读源码,不仅限于阅读各大系统源码,还包括各种优秀的开源库。

《Android学习笔记总结+移动架构视频+大厂面试真题+项目实战源码》,点击传送门即可获取!
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/748702
推荐阅读
相关标签
  

闽ICP备14008679号