所有针对 Google 设备端 AI 高性能运行时的全新开发工作都将专门在 LiteRT 上进行。使用 TensorFlow Lite 软件包的应用将继续运行,但所有新更新都将仅包含在 LiteRT 软件包中。LiteRT API 包含与 TF Lite API 相同的方法名称,因此迁移到 LiteRT 不需要进行详细的代码更改。
如需了解软件包名称更改,请参阅以下针对特定平台的迁移指南。
使用 Android 进行迁移
如需迁移使用 Tensorflow Lite 的 Android 应用,请将依赖项从 org.tensorflow:tensorflow-lite
替换为 com.google.ai.edge.litert
。LiteRT Maven 代码库包含以下软件包:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
您可以在 build.gradle
依赖项中进行此更改:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
Play 服务
Play 服务运行时中的 LiteRT 会继续使用 play-services-tflite
依赖项。如果您的应用已在使用 Play 服务运行时和 TensorFlow Lite,则无需进行任何代码更改。
如需在 Play 服务中使用 LiteRT,请将以下代码添加到您的 build.gradle
依赖项中:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
使用 Python 进行迁移
如需使用 Tensorflow Lite 迁移 Python 代码,请将 PIP 软件包从 tflite-runtime
替换为 ai-edge-litert
。
使用 PIP 安装 LiteRT:
$ python3 -m pip install ai-edge-litert
使用以下命令导入 LiteRT:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
其他库
适用于 iOS 的 Swift 和 Objective-C SDK、C++ SDK、Task 库和 Model Maker 库仍会保留在 TensorFlow Lite API 中。使用这些 SDK 或库的应用不应迁移到 LiteRT。