Halaman ini diterjemahkan oleh Cloud Translation API.
Switch to English

ML yang fleksibel, terkontrol, dan dapat diinterpretasikan dengan model berbasis kisi

import numpy as np
import tensorflow as tf
import tensorflow_lattice as tfl

model = tf.keras.models.Sequential()
model.add(
    tfl.layers.ParallelCombination([
        # Monotonic piece-wise linear calibration with bounded output
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            input_keypoints=np.linspace(1., 5., num=20),
            output_min=0.0,
            output_max=1.0),
        # Diminishing returns
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            convexity='concave',
            input_keypoints=np.linspace(0., 200., num=20),
            output_min=0.0,
            output_max=2.0),
        # Partially monotonic categorical calibration: calib(0) <= calib(1)
        tfl.layers.CategoricalCalibration(
            num_buckets=4,
            output_min=0.0,
            output_max=1.0,
            monotonicities=[(0, 1)]),
    ]))
model.add(
    tfl.layers.Lattice(
        lattice_size=[2, 3, 2],
        monotonicities=['increasing', 'increasing', 'increasing'],
        # Trust: model is more responsive to input 0 if input 1 increases
        edgeworth_trusts=(0, 1, 'positive')))
model.compile(...)

TensorFlow Lattice adalah library yang mengimplementasikan model berbasis kisi yang dibatasi dan dapat ditafsirkan. Pustaka memungkinkan Anda memasukkan pengetahuan domain ke dalam proses pembelajaran melalui batasan bentuk yang masuk akal atau berdasarkan kebijakan. Ini dilakukan dengan menggunakan kumpulan lapisan Keras yang dapat memenuhi batasan seperti monotonisitas, konveksitas, dan cara fitur berinteraksi. Library ini juga menyediakan kemudahan untuk mengatur model premade dan estimator kalengan .

Dengan TF Lattice Anda dapat menggunakan pengetahuan domain untuk melakukan ekstrapolasi yang lebih baik ke bagian-bagian dari ruang input yang tidak tercakup oleh set data pelatihan. Ini membantu menghindari perilaku model yang tidak terduga saat distribusi penayangan berbeda dari distribusi pelatihan.