TensorFlow 2.0 se lanzó en 2019 , con una estrecha integración de Keras , ejecución ansiosa de forma predeterminada y ejecución de funciones Pythonic , entre otras nuevas características y mejoras .
Esta guía proporciona una descripción técnica completa de TF 2.x en TFX.
¿Qué versión usar?
TFX es compatible con TensorFlow 2.x y las API de alto nivel que existían en TensorFlow 1.x (en particular, Estimators) continúan funcionando.
Iniciar nuevos proyectos en TensorFlow 2.x
Dado que TensorFlow 2.x conserva las capacidades de alto nivel de TensorFlow 1.x, no hay ninguna ventaja en usar la versión anterior en proyectos nuevos, incluso si no planea usar las nuevas funciones.
Por lo tanto, si está iniciando un nuevo proyecto TFX, le recomendamos que utilice TensorFlow 2.x. Es posible que desee actualizar su código más adelante a medida que esté disponible el soporte completo para Keras y otras funciones nuevas, y el alcance de los cambios será mucho más limitado si comienza con TensorFlow 2.x, en lugar de intentar actualizar desde TensorFlow 1.x en el futuro.
Conversión de proyectos existentes a TensorFlow 2.x
El código escrito para TensorFlow 1.x es ampliamente compatible con TensorFlow 2.x y seguirá funcionando en TFX.
Sin embargo, si desea aprovechar las mejoras y nuevas funciones a medida que estén disponibles en TF 2.x, puede seguir las instrucciones para migrar a TF 2.x.
Estimador
La API Estimator se ha conservado en TensorFlow 2.x, pero no es el foco de nuevas funciones ni desarrollo. El código escrito en TensorFlow 1.x o 2.x usando Estimators seguirá funcionando como se espera en TFX.
A continuación se muestra un ejemplo de TFX de extremo a extremo utilizando un Estimador puro: Ejemplo de taxi (estimador)
Keras con model_to_estimator
Los modelos de Keras se pueden empaquetar con la función tf.keras.estimator.model_to_estimator
, que les permite trabajar como si fueran Estimadores. Para usar esto:
- Construya un modelo de Keras.
- Pase el modelo compilado a
model_to_estimator
. - Utilice el resultado de
model_to_estimator
en Trainer, de la misma manera que normalmente utilizaría un Estimador.
# Build a Keras model.
def _keras_model_builder():
"""Creates a Keras model."""
...
model = tf.keras.Model(inputs=inputs, outputs=output)
model.compile()
return model
# Write a typical trainer function
def trainer_fn(trainer_fn_args, schema):
"""Build the estimator, using model_to_estimator."""
...
# Model to estimator
estimator = tf.keras.estimator.model_to_estimator(
keras_model=_keras_model_builder(), config=run_config)
return {
'estimator': estimator,
...
}
Aparte del archivo del módulo de usuario de Trainer, el resto del proceso permanece sin cambios.
Keras nativo (es decir, Keras sin model_to_estimator
)
Ejemplos y colaboración
Aquí hay varios ejemplos con Keras nativos:
- Penguin ( archivo de módulo ): ejemplo de principio a fin de 'Hola mundo'.
- MNIST ( archivo de módulo ): ejemplo de imagen y TFLite de un extremo a otro.
- Taxi ( archivo de módulo ): ejemplo de un extremo a otro con uso avanzado de Transformación.
También tenemos un Keras Colab por componente.
Componentes TFX
Las siguientes secciones explican cómo los componentes TFX relacionados admiten Keras nativo.
Transformar
Actualmente, Transform tiene soporte experimental para los modelos Keras.
El componente Transform en sí se puede utilizar para Keras nativos sin cambios. La definición preprocessing_fn
sigue siendo la misma, usando las operaciones TensorFlow y tf.Transform .
La función de servicio y la función de evaluación se cambian para Keras nativos. Los detalles se discutirán en las siguientes secciones de Entrenador y Evaluador.
Entrenador
Para configurar Keras nativo, se debe configurar GenericExecutor
para que el componente Trainer reemplace el ejecutor predeterminado basado en Estimator. Para más detalles, consulte aquí .
Archivo del módulo Keras con transformación
El archivo del módulo de capacitación debe contener un run_fn
que será llamado por GenericExecutor
; un run_fn
típico de Keras se vería así:
def run_fn(fn_args: TrainerFnArgs):
"""Train the model based on given args.
Args:
fn_args: Holds args used to train the model as name/value pairs.
"""
tf_transform_output = tft.TFTransformOutput(fn_args.transform_output)
# Train and eval files contains transformed examples.
# _input_fn read dataset based on transformed schema from tft.
train_dataset = _input_fn(fn_args.train_files, fn_args.data_accessor,
tf_transform_output.transformed_metadata.schema)
eval_dataset = _input_fn(fn_args.eval_files, fn_args.data_accessor,
tf_transform_output.transformed_metadata.schema)
model = _build_keras_model()
model.fit(
train_dataset,
steps_per_epoch=fn_args.train_steps,
validation_data=eval_dataset,
validation_steps=fn_args.eval_steps)
signatures = {
'serving_default':
_get_serve_tf_examples_fn(model,
tf_transform_output).get_concrete_function(
tf.TensorSpec(
shape=[None],
dtype=tf.string,
name='examples')),
}
model.save(fn_args.serving_model_dir, save_format='tf', signatures=signatures)
En run_fn
anterior, se necesita una firma de servicio al exportar el modelo entrenado para que el modelo pueda tomar ejemplos sin procesar para la predicción. Una función de servicio típica se vería así:
def _get_serve_tf_examples_fn(model, tf_transform_output):
"""Returns a function that parses a serialized tf.Example."""
# the layer is added as an attribute to the model in order to make sure that
# the model assets are handled correctly when exporting.
model.tft_layer = tf_transform_output.transform_features_layer()
@tf.function
def serve_tf_examples_fn(serialized_tf_examples):
"""Returns the output to be used in the serving signature."""
feature_spec = tf_transform_output.raw_feature_spec()
feature_spec.pop(_LABEL_KEY)
parsed_features = tf.io.parse_example(serialized_tf_examples, feature_spec)
transformed_features = model.tft_layer(parsed_features)
return model(transformed_features)
return serve_tf_examples_fn
En la función de publicación anterior, las transformaciones tf.Transform deben aplicarse a los datos sin procesar para realizar inferencias, utilizando la capa tft.TransformFeaturesLayer
. El _serving_input_receiver_fn
anterior que era necesario para los estimadores ya no será necesario con Keras.
Archivo del módulo Keras sin transformación
Esto es similar al archivo del módulo que se muestra arriba, pero sin las transformaciones:
def _get_serve_tf_examples_fn(model, schema):
@tf.function
def serve_tf_examples_fn(serialized_tf_examples):
feature_spec = _get_raw_feature_spec(schema)
feature_spec.pop(_LABEL_KEY)
parsed_features = tf.io.parse_example(serialized_tf_examples, feature_spec)
return model(parsed_features)
return serve_tf_examples_fn
def run_fn(fn_args: TrainerFnArgs):
schema = io_utils.parse_pbtxt_file(fn_args.schema_file, schema_pb2.Schema())
# Train and eval files contains raw examples.
# _input_fn reads the dataset based on raw data schema.
train_dataset = _input_fn(fn_args.train_files, fn_args.data_accessor, schema)
eval_dataset = _input_fn(fn_args.eval_files, fn_args.data_accessor, schema)
model = _build_keras_model()
model.fit(
train_dataset,
steps_per_epoch=fn_args.train_steps,
validation_data=eval_dataset,
validation_steps=fn_args.eval_steps)
signatures = {
'serving_default':
_get_serve_tf_examples_fn(model, schema).get_concrete_function(
tf.TensorSpec(shape=[None], dtype=tf.string, name='examples')),
}
model.save(fn_args.serving_model_dir, save_format='tf', signatures=signatures)
tf.distribuir.Estrategia
En este momento, TFX solo admite estrategias de trabajador único (por ejemplo, MirroredStrategy , OneDeviceStrategy ).
Para utilizar una estrategia de distribución, cree una tf.distribute.Strategy adecuada y mueva la creación y compilación del modelo Keras dentro del alcance de la estrategia.
Por ejemplo, reemplace model = _build_keras_model()
con:
mirrored_strategy = tf.distribute.MirroredStrategy()
with mirrored_strategy.scope():
model = _build_keras_model()
# Rest of the code can be unchanged.
model.fit(...)
Para verificar el dispositivo (CPU/GPU) utilizado por MirroredStrategy
, habilite el registro de tensorflow a nivel de información:
import logging
logging.getLogger("tensorflow").setLevel(logging.INFO)
y debería poder ver Using MirroredStrategy with devices (...)
en el registro.
evaluador
En TFMA v0.2x, ModelValidator y Evaluator se han combinado en un único componente Evaluator nuevo . El nuevo componente Evaluador puede realizar tanto la evaluación de un solo modelo como también validar el modelo actual en comparación con modelos anteriores. Con este cambio, el componente Pusher ahora consume un resultado de bendición del Evaluador en lugar de ModelValidator.
El nuevo Evaluator admite modelos Keras y Estimator. El modelo guardado _eval_input_receiver_fn
y eval que se requerían anteriormente ya no serán necesarios con Keras, ya que Evaluator ahora se basa en el mismo SavedModel
que se usa para servir.