سيتم استخدام LiteRT حصريًا في جميع عمليات التطوير الجديدة لوقت تشغيل Google العالي الأداء للذكاء الاصطناعي على الأجهزة. ستستمر التطبيقات التي تستخدم حِزم TensorFlow Lite في العمل، ولكن لن يتم تضمين جميع التحديثات الجديدة إلّا في حِزم LiteRT. تحتوي واجهات برمجة تطبيقات LiteRT على أسماء الطرق نفسها التي تحتوي عليها واجهات برمجة تطبيقات TF Lite، لذا لا يتطلّب نقل البيانات إلى LiteRT إجراء تغييرات تفصيلية على الرموز البرمجية.
للاطّلاع على التغييرات في أسماء الحِزم، يُرجى الاطّلاع على أدلّة نقل البيانات التالية لأنظمة التشغيل التالية:
نقل البيانات باستخدام Android
لنقل تطبيق Android باستخدام Tensorflow Lite، استبدِل التبعية
من org.tensorflow:tensorflow-lite
إلى com.google.ai.edge.litert
. يتضمّن
مستودع Maven في LiteRT
الحِزم التالية:
com.google.ai.edge.litert:litert
com.google.ai.edge.litert:litert-gpu
com.google.ai.edge.litert:litert-metadata
com.google.ai.edge.litert:litert-support
يمكنك إجراء هذا التغيير في تبعيات build.gradle
:
dependencies {
...
implementation `com.google.ai.edge.litert:litert:1.0.1`
}
خدمات Play
يستمر استخدام مكتبة LiteRT في وقت تشغيل "خدمات Play" لتبعية play-services-tflite
. إذا كان تطبيقك يستخدم حاليًا وقت تشغيل "خدمات Play" مع
TensorFlow Lite، لن تحتاج إلى إجراء أي تغييرات على الرمز.
لاستخدام LiteRT في "خدمات Play"، أضِف ما يلي إلى build.gradle
التبعيات:
dependencies {
...
// LiteRT dependencies for Google Play services
implementation 'com.google.android.gms:play-services-tflite-java:16.4.0'
// Optional: include LiteRT Support Library
implementation 'com.google.android.gms:play-services-tflite-support:16.4.0'
...
}
نقل البيانات باستخدام لغة Python
لنقل رمز Python باستخدام Tensorflow Lite، استبدِل حزمة PIP من
tflite-runtime
إلى ai-edge-litert
.
تثبيت LiteRT باستخدام وضع "نافذة داخل النافذة":
$ python3 -m pip install ai-edge-litert
استورِد LiteRT باستخدام ما يلي:
from ai_edge_litert.interpreter import Interpreter
interpreter = Interpreter(model_path=args.model_file)
المكتبات الأخرى
ستظلّ حِزم تطوير البرامج (SDK) Swift وObjective-C لنظام التشغيل iOS وحِزمة تطوير البرامج (SDK) C++ ومكتبة Task Library ومكتبة Model Maker متاحة في واجهات برمجة تطبيقات TensorFlow Lite. ويجب عدم نقل التطبيقات التي تستخدم حِزم SDK أو المكتبات هذه إلى LiteRT.