Halaman ini diterjemahkan oleh Cloud Translation API.
Switch to English

ML fleksibel, terkontrol, dan dapat ditafsirkan dengan model berbasis kisi

import numpy as np
import tensorflow as tf
import tensorflow_lattice as tfl

model = tf.keras.models.Sequential()
model.add(
    tfl.layers.ParallelCombination([
        # Monotonic piece-wise linear calibration with bounded output
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            input_keypoints=np.linspace(1., 5., num=20),
            output_min=0.0,
            output_max=1.0),
        # Diminishing returns
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            convexity='concave',
            input_keypoints=np.linspace(0., 200., num=20),
            output_min=0.0,
            output_max=2.0),
        # Partially monotonic categorical calibration: calib(0) <= calib(1)
        tfl.layers.CategoricalCalibration(
            num_buckets=4,
            output_min=0.0,
            output_max=1.0,
            monotonicities=[(0, 1)]),
    ]))
model.add(
    tfl.layers.Lattice(
        lattice_size=[2, 3, 2],
        monotonicities=['increasing', 'increasing', 'increasing'],
        # Trust: model is more responsive to input 0 if input 1 increases
        edgeworth_trusts=(0, 1, 'positive')))
model.compile(...)

TensorFlow Lattice adalah perpustakaan yang mengimplementasikan model berbasis kisi yang dibatasi dan dapat ditafsirkan. Perpustakaan memungkinkan Anda untuk menyuntikkan pengetahuan domain ke dalam proses pembelajaran melalui kendala bentuk akal sehat atau kebijakan-driven. Hal ini dilakukan dengan menggunakan kumpulan lapisan Keras yang dapat memenuhi kendala seperti monotonitas, cembung dan bagaimana fitur berinteraksi. Perpustakaan juga menyediakan model premade yang mudah untuk disiapkan dan penaksir kalengan .

Dengan TF Lattice Anda dapat menggunakan pengetahuan domain untuk melakukan ekstrapolasi yang lebih baik ke bagian-bagian ruang input yang tidak tercakup oleh dataset pelatihan. Ini membantu menghindari perilaku model yang tidak terduga ketika distribusi penyajian berbeda dari distribusi pelatihan.