Translate

2017年8月8日火曜日

TensorFlow Serving 1.0 リリースのブログ記事を翻訳してみた


今朝、Twitterをみると、こんな記事がながれてきた。


ので、ちょっと翻訳してみることにした。
参照の場合はat your own risk でお願いします。

r0.12のころに読んだServingは、
訓練サーバと予測サーバ(プロダクト側)をgRPCでつなぐ実装例みたいに
とらえていたのだけど、1.0ってことはそのあたりの仕組みもTesnorFlowで
もってくれるってことなのかもしれない。

とりあえず、読んで見る。
----

TensorFlow Serving 1.0


Kiril Gorovoy, ソフトウェアエンジニア

TensorFlow Servingは、プロダクト環境向けに設計された機械学習モデル用の高性能サービングシステムで、2016年2月の最初のオープンソースリリース以来、我々は長い道のりを歩んできました。今日、TensorFlow Serving 1.0のリリースをお知らせいたします。 バージョン1.0は、TensorFlow 最新版以降のバージョンで構築されています。

システムの概要については、Google I / O 2017のNoah Fiedelの講演をご覧ください。



プロジェクトを最初にセットアップしたとき、モデルのライフサイクルを管理し、推論要求を処理するためのコア機能を提供する一連のライブラリでした。 その後、Predict APIを使用したgRPC Model Serverバイナリと、Kubernetesに展開する方法の例を紹介しました。 それ以来、さまざまなユースケースに合わせて機能を拡張し、ユーザーのニーズを満たすためにAPIを安定させるように努めました。 現在、Googleでは、TensorFlowサービングをプロダクションで使用する800以上のプロジェクトがあります。 安定した、堅牢で高性能な実装でサーバーとAPIをテストしました。

apt-get installを使って、事前ビルドされたバイナリを入手することができました。 さて、TensorFlowを使い始めるには、コンパイルに時間を費やすことなく、簡単にインストールして実行できます。 いつものように、Dockerを使って、Linux以外のシステムにLinuxサーバーをインストールすることができます。

このリリースでは、TensorFlow Servingも従来のSessionBundleモデルフォーマットのサポートを正式にdeprecateし、中止しています。 SavedModelでは、TensorFlow 1.0の一部としてのTensorFlowのモデル形式が正式にサポートされた形式になりました。

開始するには、プロジェクトとチュートリアルのドキュメントを参照してください。 TensorFlow 1.0をお楽しみください!


-----
aptだけでなくDockerfileも公開したよ、ということでのぞいてみたけど..

SavedModel云々のくだりから推測するに、どうもr0.12のころからは実装が変わっている様子だが..

ためしてみるか..

なお、上のDockerリンクはCPUのみ版で、GPU版もちゃんとあるようだ。




0 件のコメント:

既存アプリケーションをK8s上でコンテナ化して動かす場合の設計注意事項メモ

既存アプリをK8sなどのコンテナにして動かすには、どこを注意すればいいか..ちょっと調べたときの注意事項をメモにした。   1. The Twelve Factors (日本語訳からの転記) コードベース   バージョン管理されている1つのコードベースと複数のデプロイ 依存関係 ...