TensorFlow 2.21リリース
TensorFlow 2.21がリリースされた。本リリースでは、オンデバイス推論を強化するための「LiteRT」への移行が本格化し、より高速かつ柔軟なハードウェアアクセラレーション環境への対応が進められている。また、コミュニティからの要望に応え、セキュリティ修正や新しいPythonのアップデート等に対するリリース体制が強化された。
主要な変更点
- LiteRTの統合: 高性能なオンデバイス推論ランタイム「LiteRT」が正式にプロダクションスタックへ移行した。従来のTFLite比で1.4倍のGPUパフォーマンス向上を実現し、最新のNPUアクセラレーションや、Gemmaなどの生成モデルのクロスプラットフォーム展開に対応する。また、モデル変換を通じたPyTorchおよびJAXのサポートが実装された。
- tflite演算子の低精度サポート拡充: 複数の演算子において、より小さなデータ型のサポートが追加された。SQRTや比較演算子におけるint8やint16x8のサポートに加え、tfl.castでのINT2およびINT4対応、tfl.sliceでのINT4対応、tfl.fully_connectedでのINT2対応が可能になった。
- バグ修正と依存関係更新への注力: TF.dataやTensorFlow Serving、TensorBoard等のコンポーネントにおいて、セキュリティの修正や新しいPythonへの対応のため、マイナーバージョンやパッチバージョンが迅速にリリースされる体制が敷かれた。
留意事項
TF Liteプロジェクトは「LiteRT」へ名称変更され、今後は独立して活発に開発が進められる。また、TensorFlow本体は引き続き本番利用向けとして安定性を提供する一方で、生成AI分野における新規開発についてはKeras 3、JAX、PyTorchの活用が公式から推奨されるようになった。