Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

ML Kit: integrazione nelle App Android e iOS

Come integrare ML Kit in App Android e iOS sfruttando le sue funzionalità di AI per creare esperienze utente innovative e coinvolgenti
Come integrare ML Kit in App Android e iOS sfruttando le sue funzionalità di AI per creare esperienze utente innovative e coinvolgenti
Link copiato negli appunti

In questa lezione, parleremo di come integrare ML Kit di Google nei nostri progetti di sviluppo mobile, sfruttando le sue potenti funzionalità di intelligenza artificiale per creare esperienze utente innovative e coinvolgenti. Attraverso una serie di passi dettagliati, procederemo nell'installazione e configurazione di ML Kit sia per Android che per iOS. Successivamente ci focalizzeremo su come utilizzare le API di ML Kit per implementare diverse funzionalità AI nelle nostre app, trasformandole in strumenti intelligenti che soddisfano le esigenze degli utenti.

Prerequisiti per l'integrazione di ML Kit

Prima di iniziare il processo di integrazione di ML Kit nel nostro ambiente di sviluppo è fondamentale assicurarsi di avere a disposizione gli strumenti necessari. Nello specifico:

  • un IDE compatibile, scegliamo quello che più preferiamo anche se, chiaramente, il processo di integrazione del framework cambia da IDE ad IDE. In questa guida useremo Android Studio per l'integrazione in ambiente Android e Xcode per l'integrazione in ambiente iOS. È inoltre richiesta una conoscenza base dei linguaggi di programmazione mobile (Java e Kotlin per Android e Swift per iOS), dell'architettura delle app e del ciclo di vita delle applicazioni.
  • Conoscenza di base dei concetti di sviluppo mobile Android e iOS e dei principi fondamentali dell'intelligenza artificiale.

Integrazione di ML Kit su Android Studio

SecuriDropper

Per integrare ML Kit su Android Studio dovremo seguire i seguenti passaggi:

  1. apriamo Android Studio e creiamo un nuovo progetto Android selezionando "File" > "Nuovo" > "Progetto" e seguiamo le istruzioni guidate per configurare il nostro progetto. Assicuriamoci di selezionare la versione minima del SDK appropriata (Livello API 21 o superiore) e scegliamo il tipo di attività in base alle nostre esigenze.
  2. Una differenza significativa tra le applicazioni Android è la configurazione del file build.gradle, che determina come l'app sarà distribuita agli utenti. Quando si utilizza ML Kit, è importante comprendere le opzioni di configurazione del bundle e selezionare quella più adatta alle esigenze del progetto. Tra queste abbiamo:
    • APK (Android Package): il formato di distribuzione classico per le applicazioni Android. L'APK contiene tutto il codice e le risorse dell'applicazione, comprese le dipendenze di ML Kit. È adatto per la pubblicazione su Google Play Store e altre piattaforme per la distribuzione di applicazioni Android.
    • App Bundle: un formato di distribuzione più recente consigliato da Google. L'app bundle suddivide l'applicazione in moduli di base e moduli dinamici, consentendo di ridurre le dimensioni del download per gli utenti e di ottimizzare l'utilizzo delle risorse. Quando si utilizza l'app bundle, è possibile includere solo le dipendenze di ML Kit necessarie per le funzionalità specifiche dell'app, riducendone così le dimensioni complessive.

    Supponendo di scegliere la seconda configurazione, apriamo il file build.gradle del modulo app nel nostro progetto su Android Studio e aggiungiamo le dipendenze ML Kit per la nostra applicazione. Nello specifico: implementation 'com.google.android.gms:play-services-mlkit-text-recognition:17.1.0'implementation 'com.google.android.gms:play-services-mlkit-face-detection:17.1.0'.

    Queste dipendenze ci permetteranno di utilizzare le funzionalità di riconoscimento del testo e di rilevamento dei volti di ML Kit ma, ovviamente, in base al tipo di applicazione che vogliamo sviluppare potremmo aggiungere delle specifiche dipendenze piuttosto che altre. Ecco un elenco delle dipendenze di ML Kit disponibili per Android, suddivise per le varie funzionalità offerte:

    • com.google.mlkit.acceleration
    • com.google.mlkit.barcode-scanning
    • com.google.mlkit.barcode-scanning-common
    • com.google.mlkit.camera
    • com.google.mlkit.digital-ink-recognition
    • com.google.mlkit.entity-extraction
    • com.google.mlkit.face-detection
    • com.google.mlkit.face-mesh-detection
    • com.google.mlkit.image-labeling
    • com.google.mlkit.image-labeling-automl
    • com.google.mlkit.image-labeling-common
    • com.google.mlkit.image-labeling-custom
    • com.google.mlkit.image-labeling-default-common
    • com.google.mlkit.language-id
    • com.google.mlkit.language-id-common
    • com.google.mlkit.linkfirebase
    • com.google.mlkit.mediapipe-internal
    • com.google.mlkit.object-detection
    • com.google.mlkit.object-detection-common
    • com.google.mlkit.object-detection-custom
    • com.google.mlkit.playstore-dynamic-feature-support
    • com.google.mlkit.pose-detection
    • com.google.mlkit.pose-detection-accurate
    • com.google.mlkit.pose-detection-common
    • com.google.mlkit.segmentation-selfie
    • com.google.mlkit.smart-reply
    • com.google.mlkit.smart-reply-common
    • com.google.mlkit.text-recognition
    • com.google.mlkit.text-recognition-bundled-common
    • com.google.mlkit.text-recognition-chinese
    • com.google.mlkit.text-recognition-devanagari
    • com.google.mlkit.text-recognition-japanese
    • com.google.mlkit.text-recognition-korean
    • com.google.mlkit.translate
    • com.google.mlkit.vision-common
    • com.google.mlkit.vision-internal-vkp
    • com.google.mlkit.vision-interfaces

    Assicuriamoci di includere sempre le versioni più recenti delle dipendenze per garantire il supporto delle ultime funzionalità e correzioni di bug.

  3. Dopo aver scelto quali dipendenze inserire nel file build.gradle sincronizziamo il nostro progetto con Gradle per scaricare e installare le dipendenze aggiunte.
  4. Una volta che le dipendenze sono state correttamente integrate potremo iniziare a implementare le funzionalità AI desiderate utilizzando le API di ML Kit. Le API sono ben documentate e offrono esempi di codice per diversi scenari di utilizzo.

Integrazione di ML Kit su Xcode

  1. Apriamo Xcode e selezioniamo "Crea un nuovo progetto". Scegliamo il modello di progetto più adatto alle nostre esigenze, ad esempio "Applicazione Singola View" e assegniamo un nome al progetto. Selezioniamo il linguaggio di programmazione (solitamente Swift o Objective-C) e il dispositivo di destinazione.
  2. Aggiungiamo adesso le librerie di ML Kit che vogliamo utilizzare all'interno della nostra applicazione.
  3. Apriamo il file Podfile nella cartella del progetto e aggiungiamo le seguenti righe di codice:
    target 'NomeDelProgetto' do use_frameworks! pod 'GoogleMLKit/BarcodeScanning' pod 'GoogleMLKit/ImageLabeling'
    # Aggiungiamo altre dipendenze ML Kit se necessario end
  4. Eseguiamo quindi il comando pod install nella directory del progetto tramite Terminale. Questo installerà ML Kit e le relative dipendenze.
  5. Apriamo il file .xcworkspace del nostro progetto Xcode. Nel file Info.plist, aggiungiamo le chiavi Privacy - Camera Usage Description e Privacy - Photo Library Usage Description con una breve descrizione del motivo per cui l'app richiede l'accesso alla fotocamera e alla libreria foto. Chiaramente se stiamo installando, come nell'esempio, le libreria relative al BarcodeScanning e ImageLabeling.
  6. Dopo aver eseguito il comando pod install, verrà creato un file con estensione .xcworkspace nella directory del progetto. Questo file è quello che dobbiamo aprire. Quindi, facciamo doppio clic sul file .xcworkspace.
    Una volta aperto il progetto nell'.xcworkspace possiamo trovare il file Info.plist nel navigatore di progetto di Xcode.
    Clicchiamo sul file Info.plist per aprirlo nell'editor. Questo file contiene informazioni di configurazione sull'applicazione, inclusi permessi e autorizzazioni richieste dall'applicazione per accedere a determinate risorse del dispositivo.
    All'interno del file Info.plist dobbiamo aggiungere due chiavi: la prima è Privacy - Camera Usage Description. Essa richiede una stringa di testo che spiega perché l'app richiede l'accesso alla fotocamera. Ad esempio, "Per scansionare i codici a barre e riconoscere oggetti tramite la fotocamera".
    La seconda è Privacy - Photo Library Usage Description. Chiave che prevede una stringa di testo che spiega perché l'app richiede l'accesso alla libreria foto. Ad esempio, "Per selezionare e analizzare le immagini dalla libreria foto dell'utente".

Fatto questo abbiamo completato l'integrazione di ML Kit su Xcode.

Conclusioni

Ora abbiamo integrato correttamente ML Kit nel nostro ambiente di sviluppo. Integrare ML Kit nelle proprie app Android e iOS può aprire nuove opportunità per migliorare l'esperienza degli utenti e distinguersi sul mercato delle applicazioni mobili. Con le giuste conoscenze e strumenti, gli sviluppatori possono sfruttare appieno il potenziale di ML Kit per creare applicazioni intelligenti e all'avanguardia, in grado di offrire funzionalità innovative e personalizzate. Nelle prossime lezioni vedremo qualche esempio pratico di come usare ML Kit.

Ti consigliamo anche