編集

TensorFlow 2.21リリース

TensorFlow 2.21がリリースされた。本リリースでは、オンデバイス推論を強化するための「LiteRT」への移行が本格化し、より高速かつ柔軟なハードウェアアクセラレーション環境への対応が進められている。また、コミュニティからの要望に応え、セキュリティ修正や新しいPythonのアップデート等に対するリリース体制が強化された。

#主要な変更点

  • LiteRTの統合: 高性能なオンデバイス推論ランタイム「LiteRT」が正式にプロダクションスタックへ移行した。従来のTFLite比で1.4倍のGPUパフォーマンス向上を実現し、最新のNPUアクセラレーションや、Gemmaなどの生成モデルのクロスプラットフォーム展開に対応する。また、モデル変換を通じたPyTorchおよびJAXのサポートが実装された。
  • tflite演算子の低精度サポート拡充: 複数の演算子において、より小さなデータ型のサポートが追加された。SQRTや比較演算子におけるint8やint16x8のサポートに加え、tfl.castでのINT2およびINT4対応、tfl.sliceでのINT4対応、tfl.fully_connectedでのINT2対応が可能になった。
  • バグ修正と依存関係更新への注力: TF.dataやTensorFlow Serving、TensorBoard等のコンポーネントにおいて、セキュリティの修正や新しいPythonへの対応のため、マイナーバージョンやパッチバージョンが迅速にリリースされる体制が敷かれた。

#留意事項

TF Liteプロジェクトは「LiteRT」へ名称変更され、今後は独立して活発に開発が進められる。また、TensorFlow本体は引き続き本番利用向けとして安定性を提供する一方で、生成AI分野における新規開発についてはKeras 3、JAX、PyTorchの活用が公式から推奨されるようになった。

#参考文献

編集